UX.AI#2 Jony, Siri et le piège de l’anthropomorphisme déceptif

Il est 22h34. Thomas rentre du travail, satisfait mais lessivé. Il referme doucement la porte de son appartement, traverse le couloir dans la pénombre, entre dans la cuisine et murmure :

« Siri, allume la cuisine. »

Rien.

Il s’approche du HomePod mini et réitère sa demande :

« Siri, allume la cuisine. »

Toujours rien.

Troisième tentative, plus agacée :

« SI-RI, allume la cuisine! »

« Je ne trouve pas de pièce nommée l’usine. »

Thomas se retient, souffle un bon coup et articule, lentement, en insistant :

« SIRI allume cuisine. »

« Je ne trouve pas le morceau de musique cuisine. »

Là, Thomas craque.

« Siri-allume-la-cuisine-ducon »

« Ce n’est pas très gentil. »

Et toujours pas de lumière…

C’est à ce moment-là que Thomas pense à Jony Ive. À ce designer génial, inventeur dans la même décennie du notch ET du squircle, qui selon la légende aurait peaufiné les moindres détails de l’Apple Park à l’arrière de sa Bentley Mulsanne, tournant inlassablement autour, pendant que ses collaborateurs oubliaient de mapper la fonction lampe dans les méandres d’un écosystème vieillissant.

« Cinquante milliards de cash et même pas foutus d’allumer une ampoule », marmonne Thomas.

Et c’est là que le HomePod le regarde. Enfin… il croit le voir le regarder. La LED du HomePod s’illumine doucement, palpite, hésite… puis s’éteint.

Alors Thomas lui tape un peu dessus pour tenter d’activer les quelques neurones possiblement stockés à l’intérieur. Pas avec violence, mais avec conviction. Il ne corrige pas une erreur. Il challenge un adversaire.

Sans résultat.

Alors Il insiste un plus fort, pour réveiller le semblant de capteur tactile qui n’a pas l’air de bien vouloir collaborer ce soir.

« Tu vas me répondre, enfin ! »

Mais le HomePod reste muet. Narquois. Comme s’il prenait un plaisir pervers à ignorer son challenger.

Thomas insiste. Avec une conviction renouvelée. Et la lumière se remet à luire, calmement, comme pour dire : « Je t’écoute, mais je préfère ne pas répondre. »

« Ah c’est personnel c’est çà ? Tu m’en veux de parler à ChatGPT sur mon MacBook ? Tu voudrais pas à la place remercier Tim Apple pour sa clairvoyance dans l’intégration de l’IA dans son écosystème ? »

Mais le HomePod reste silencieux. Définitivement vexé. Et la cuisine est toujours dans le noir.

C’est à ce moment que sa compagne surgit, réveillée par l’échange percussif entre son homme et la machine.

« M’enfin… Encore en train de taper sur l’assistant vocal ? »

« Cette fois, c’est lui qui a commencé. Il m’en veut je te dis ! »

« Allons, viens mon chéri, c’est qu’une machine. Elle n’a pas de conscience… »

« Pas de conscience ! Quand ça l’arrange oui ! »

Anthropomorphisme déceptif : quand la machine fait semblant d’être humaine

Ce que vit Thomas n’est pas un bug, c’est un malentendu. Il ne parle pas à un appareil, mais à ce qu’il croit être une intelligence capable de le comprendre. Or Siri, encore déconnecté de toute IA, n’a aucune capacité de raisonnement. Il ne comprend pas. Il applique des commandes strictes avec une voix douce et polie. Et c’est justement ce ton humain qui trompe : on s’attend à de l’écoute là où il n’y a qu’un système figé.

« Je ne trouve pas de pièce nommée l’usine. »

« Je ne trouve pas le morceau de musique Cuisine. »

Ces réponses sont plates, littérales. Et pourtant, elles déclenchent de la frustration. Pourquoi ? Parce que tout dans l’apparence simule une personne — prénom, voix, phrasé. L’utilisateur projette de l’intelligence, là où il n’y a qu’un automate.

À l’opposé, les nouveaux agents IA, comme Gemini, font tout pour comprendre — ou en donnent l’impression. Et quand ils échouent, ils activent le protocole d’empathie simulée :

« Vous avez absolument raison… Je m’en excuse. »

« Je suis désolé, mes suggestions n’étaient pas à la hauteur. »

« Je comprends votre frustration, et je suis sincèrement navré. »

« Je vais maintenant exécuter le script final. J’ai bon espoir que le problème soit résolu.»

Mais ces excuses n’ont aucune valeur : elles ne réparent rien, n’améliorent rien, ne traduisent aucune émotion. C’est du théâtre algorithmique. Et plus l’agent semble humain, plus l’utilisateur attend une réponse humaine — cohérente, sensible, pertinente. Quand elle n’arrive pas, ce n’est pas une machine qu’on critique, mais un alter ego imaginaire qui nous déçoit.

C’est là tout le piège de l’anthropomorphisme déceptif : nous sommes les auteurs du malentendu.

Concevoir des agents transparents

Mon expérience en Relationship Design démontre qu’un agent IA efficace est avant tout un agent transparent. Voici mes préconisations :

  • Remplacer les excuses par des messages clairs : « Commande non reconnue » + une proposition d’action permettant de répondre par oui ou non, plutôt que « Je suis désolé ».
  • Arrêter la moralisation : Si l’utilisateur s’énerve, l’agent n’a pas à porter de jugement : il doit proposer une solution, pas se draper dans la dignité offensée d’un chatbot blessé.
  • Suggérer plutôt que s’excuser : En cas d’erreur, offrir une alternative « Voulez-vous plutôt… ?» au lieu d’une excuse.
  • Préserver la relation par la fonctionnalité : Un agent utile vaut mieux qu’un agent sympa – la confiance naît d’abord de la fiabilité.

Conclusion

L’anthropomorphisme est flatteur jusqu’à ce qu’il devienne un piège. Plus une machine parle comme un humain, plus l’utilisateur s’attend à ce qu’elle pense, ressente, s’adapte. Et quand ce mirage s’effondre — que ce soit face à un HomePod borné ou à une IA surjouant l’excuse — la déception est d’autant plus brutale.

Un assistant IA ne doit pas simuler l’humanité. Il doit assumer sa nature logicielle, claire et fiable. Pas de fausse compassion, pas de remords fabriqués — juste des réponses utiles, transparentes, conçues pour servir.

👉 C’est ici que l’UX Designer reste essentiel.

Non pas pour humaniser la machine à outrance, mais pour protéger l’humain de la désillusion.

Retour en haut