L’anthropomorphisme désigne le phénomène par lequel nous attribuons des caractéristiques humaines à des entités non humaines, telles que des animaux ou des machines. Les chatbots comme ChatGPT, Gemini et Copilot renforcent cette tendance en imitant le langage humain pour communiquer avec nous. En allant au-delà de l’utilisation de simples mots et expressions familiers, ils adoptent des schémas de communication humains, ce qui leur permet de tenir des conversations contextualisées et cohérentes, montrant même des émotions comme l’humour et l’empathie.

Ces systèmes emploient un langage qui vise à rendre l’interaction avec eux naturelle, fluide et accessible, facilitant leur utilisation dans divers contextes, allant du service client à l’éducation et au divertissement.

Jusqu’à présent, le langage était considéré comme une capacité propre à l’être humain. Cependant, les avancées en matière d’intelligence artificielle générative, qui alimentent ces chatbots, nous poussent à reconsidérer cette idée.

Un des traits les plus distinctifs du langage humain est la subjectivité, qui se manifeste par des mots ou des expressions véhiculant des nuances émotionnelles, ainsi que l’expression d’opinions personnelles. Cela inclut également la formulation d’opinions sur des événements et l’utilisation d’éléments contextuels ou culturels.

Le chatbot ELIZA, lancé en 1966, simulait le comportement humain en prenant le rôle d’un psychologue lors de ses conversations avec les utilisateurs.
Wikimedia Commons, CC BY

La première personne : “Je” et “Nous”

Un trait typique de la subjectivité humaine dans le langage est l’utilisation des pronoms personnels. La première personne – “je” ou “nous” – nous permet d’exprimer des pensées et expériences personnelles. La deuxième personne – “tu” ou “vous” – engage l’autre personne, établissant ainsi une relation entre les deux interlocuteurs d’une conversation. Cela s’appelle l’intersubjectivité.

Examinons un exemple relativement simple :

  • Utilisateur : “J’organise ma maison. Comment puis-je décider quels articles garder, donner ou jeter ?”

  • Chatbot : “Excellente question ! Organiser vos affaires peut être accablant, mais avec une stratégie claire, vous pouvez simplifier ces décisions. Voici quelques idées pour décider quoi garder, donner ou jeter.”

Le chatbot utilise la première personne de manière implicite. Bien qu’il ne dise pas “je” ou “moi”, il assume le rôle d’un conseiller, et des expressions comme “voici quelques idées” présentent les suggestions comme étant les siennes.

Le chatbot se positionne comme un assistant, amenant l’utilisateur à se sentir personnellement concerné, même si la première personne n’est pas utilisée explicitement. De plus, l’utilisation de “voici” renforce l’image du chatbot comme quelqu’un qui offre quelque chose de valeur.




À lire aussi :
Nous avons demandé à ChatGPT des conseils juridiques – voici cinq raisons pour lesquelles vous ne devriez pas le faire.


La deuxième personne : le pouvoir du “vous”

“Vous” (et ses autres formes comme “votre”) s’adresse directement à l’utilisateur. Nous pouvons le constater dans plusieurs parties de l’exemple précédent, comme l’expression “organiser vos affaires” et ” vous pouvez simplifier ces décisions”.

En s’adressant à vous de manière personnelle, le chatbot cherche à faire en sorte que l’utilisateur sente qu’il joue un rôle actif dans la conversation. Cette approche linguistique est courante dans les textes visant à impliquer l’autre personne.

D’autres phrases, comme “Excellente question !” non seulement donnent une impression positive à la demande de l’utilisateur, mais les encouragent également à s’engager. Des phrases telles que “organiser vos affaires peut être accablant” suggèrent une expérience partagée, créant une illusion d’empathie en reconnaissant les émotions de l’utilisateur.




À lire aussi :
ChatGPT est désormais meilleur que jamais pour simuler les émotions et comportements humains.


Une empathie artificielle

L’utilisation de la première personne par le chatbot simule une certaine conscience et vise à créer une illusion d’empathie. En adoptant une position d’assistance et en s’adressant à l’utilisateur, il renforce la perception d’intimité. Cette combinaison génère une conversation qui semble humaine, pratique et adaptée aux conseils, même si son empathie découle d’un algorithme et non d’une compréhension réelle.

S’habituer à interagir avec des entités non conscientes qui simulent une identité et une personnalité pourrait avoir des répercussions à long terme, car ces interactions peuvent influencer nos vies personnelles, sociales et culturelles. À mesure que ces technologies s’améliorent, il sera de plus en plus difficile de distinguer une conversation avec une personne réelle de celle avec un système d’IA.

Cette frontière de plus en plus floue entre l’humain et l’artificiel impacte notre compréhension de l’authenticité, de l’empathie et de la présence consciente dans la communication. Nous en viendrons peut-être à traiter les chatbots IA comme s’ils étaient des êtres conscients, générant ainsi une confusion au sujet de leurs réelles capacités.

Des difficultés à communiquer avec d’autres humains

Les interactions avec les machines peuvent aussi modifier nos attentes en matière de relations humaines. À mesure que nous nous habituons à des échanges rapides, fluides et sans conflit, nous pourrions devenir plus frustrés dans nos relations avec de vraies personnes.

Les interactions humaines sont teintées d’émotions, de malentendus et de complexité. À long terme, des interactions répétées avec des chatbots peuvent diminuer notre patience et notre capacité à gérer les conflits et à accepter les imperfections naturelles des interactions interpersonnelles.

De plus, une exposition prolongée à des interactions simulées soulève des dilemmes éthiques et philosophiques. En attribuant des qualités humaines à ces entités – telles que la capacité de ressentir ou d’avoir des intentions – nous pourrions commencer à remettre en question la valeur de la vie consciente par rapport à la simulation parfaite. Cela pourrait ouvrir des débats sur les droits des robots et la valeur de la conscience humaine.

Interagir avec des entités non sensibles qui imitent l’identité humaine peut transformer notre perception de la communication, des relations et de l’identité. Bien que ces technologies offrent une plus grande efficacité, il est essentiel d’être conscient de leurs limites et des impacts potentiels sur nos interactions, tant avec les machines qu’entre nous.

Notre point de vue

Il est indéniable que les chatbots qui imitent le langage humain apportent une innovation considérable dans le domaine de la communication. Cependant, nous devons naviguer prudemment à travers ces interactions. Les compétences interpersonnelles fondamentales, essentielles à notre développement social et émotionnel, pourraient en souffrir si nous devenons trop dépendants de ces technologies. La création d’un équilibre entre l’utilisation des intelligences artificielles comme outils d’assistance et le maintien de la richesse des interactions humaines devrait être notre priorité. En effet, la technologie doit servir de complément, et non de substitut, à la véritable connexion humaine.



  • Source image(s) : theconversation.com
  • Source : https://theconversation.com/chatgpts-artificial-empathy-is-a-language-trick-heres-how-it-works-244673

By Maria Rodriguez

Maria est Journaliste Trilingue indépendante depuis 2015, elle intervient sur LesNews Le Web est à nous dans les univers : International, Economie, Politique, Culture et d'autres faits de Société

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *