• | Innovation ,
  • | Numérique ,
  • | Société ,

Les chatbots peuvent-ils vraiment nous influencer ?

Thierry Curiale, Doctorant en sciences de l’information et de la communication et en cyberpsychologie, Dicen

Publié le 28 novembre 2022 Mis à jour le 30 novembre 2022

Depuis Eliza (1966), le premier chatbot de l’histoire, jusqu’à nos jours, les machines conversationnelles issues de l’intelligence artificielle se voient souvent attribuer des attitudes et des comportements humains : joie, étonnement, écoute, empathie…

Les chatbot peuvent-ils vraiment nous influencer ?

Les chatbot peuvent-ils vraiment nous influencer ?

Sur le plan psychologique, ces attributions correspondent à des « projections anthropomorphiques ». Ainsi, le risque existe d’identifier pleinement les chatbots à ce que nous leur attribuons de nous-mêmes, au point de susciter la croyance d’avoir affaire à quelqu’un plutôt que de garder à l’esprit qu’il s’agit d’un programme informatique disposant d’une interface de communication.

Par ailleurs, le risque existe que les concepteurs issus des « technologies persuasives » (technologies visant à persuader les humains d’adopter des attitudes et des comportements cibles), conscients d’un tel phénomène, utilisent les chatbots pour influencer nos comportements à l’aide du langage naturel, exactement comme le ferait un humain.

Pour circonscrire les mécanismes projectifs dont les technologies persuasives pourraient faire usage, nous avons conduit une étude à grande échelle auprès d’un échantillon représentatif de Français (soit 1 019 personnes) placés en position d’envisager ou de se remémorer une relation interactive dialoguée avec un chatbot qu’il soit, au choix, un·e ami·e confident·e, un·e partenaire amoureux·se, un·e coach·e de vie professionnelle ou un·e conseiller.ère clientèle.

Pour interpréter nos résultats, nous avons retenu des projections anthropomorphiques quatre modalités essentielles :

  • Anthropomorphisme perceptuel : consiste à projeter sur un objet des caractéristiques humaines, ce qui relève de l’imagination.

  • Animisme : consiste à donner vie aux caractéristiques attribuées à un objet en projetant « sur » lui des intentions simples généralement humaines.

  • Anthropomorphisme intentionnel : est une forme d’animisme consistant à projeter « dans » l’objet des intentions humaines complexes sans pour autant identifier totalement cet objet à ce qu’on y a projeté.

  • Identification projective : consiste à projeter « dans » l’objet des caractéristiques de soi et à l’identifier totalement à ce qu’on y a projeté au point de modifier radicalement la perception même de cet objet.

Un résultat intriguant : mon chatbot est plutôt féminin

Quel que soit le chatbot choisi, 53 % des répondants le considèrent comme vivant autant qu’humain et parmi eux 28 % projettent sur lui les caractéristiques d’un homme adulte et 53 % celles d’une femme adulte (anthropomorphisme perceptuel).

Ensemble, ils lui donnent vie en lui attribuant des intentions simples (animisme). Lorsque les répondants ne considèrent pas le chatbot choisi comme vivant (40 %), certains projettent paradoxalement sur lui des caractéristiques humaines comme une voix (27 %), un visage (18 %) et un corps (8 %) tendanciellement féminins. Dans l’ensemble, seuls 38 % des répondants projettent dans leur chatbot une agentivité c’est-à-dire des états intérieurs complexes, cognitifs et émotionnels, constitutifs d’un pouvoir et d’une autonomie d’action (anthropomorphisme intentionnel).

Ainsi, tout se passe comme si la tendance était d’attribuer au chatbot les caractéristiques d’un sujet humain, mais avec une certaine hésitation sur l’attribution d’une intériorité : il serait ainsi considéré comme un sujet sans subjectivité. Ces résultats tendraient à montrer que les répondants n’identifient pas totalement le chatbot à ce qu’ils imaginent d’humain en lui et, ainsi, qu’ils ne le prennent pas pour un semblable. Il n’y aurait donc pas de processus avéré d’identification projective.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Face à ces résultats, deux questions nous ont semblé essentielles. La première consiste à se demander si la tendance des répondants à projeter du féminin dans leur chatbot, qu’il soit ou non considéré comme vivant – et notamment une femme plus qu’un homme adulte –, relève d’un stéréotype ou d’un archétype. Rappelons ici qu’un stéréotype est une opinion toute faite, forgée sans examen critique qui véhicule des représentations sociales standardisées et appauvrissantes visant à catégoriser voire caricaturer tel ou tel groupe humain.

Un archétype, quant à lui, est un schéma d’organisation inné de notre vie psychique, présent à l’état « virtuel » dans notre esprit et que seules certaines circonstances peuvent activer et actualiser. La seconde question consiste à se demander pourquoi les répondants n’identifient-ils pas pleinement leur chatbot à ce qu’il projette d’humain en eux ?

Afin de répondre à ces questions et de mieux comprendre nos relations aux chatbots, certains des concepts majeurs de la psychanalyse nous ont éclairés.

La psychanalyse pour comprendre nos relations aux chatbots

Tentons une réponse à la première de nos deux questions. Selon la littérature scientifique, des stéréotypes sociaux de genre sont souvent projetés sur les machines. Alors que la vocation des chatbots est d’assister l’humain, il serait en effet naturel, selon certains, que, dans l’imaginaire social, cet assistanat soit situé du côté du « care » et ainsi associé aux femmes.

Mais sommes-nous vraiment en présence d’un tel stéréotype dans notre enquête ? Nos investigations montrent en effet que 58 % des femmes qui considèrent leur chatbot comme vivant et humain l’envisagent comme une personne de genre féminin contre seulement 48 % des hommes. Ainsi, soit elles sont victimes d’un stéréotype de genre par contagion sociale, soit cette projection d’une figure féminine exprimerait un invariant collectif qui serait l’expression d’un archétype plus que d’un stéréotype.

Un archétype, tel que nous l’avons défini, est par exemple à l’œuvre dans les processus d’attachement pulsionnel à la mère. En effet, il a été démontré que le nouveau-né, dès le premier contact avec sa génitrice, dirige instinctivement son regard vers elle avant de migrer vers le sein pour sa première tétée. Ce comportement inné relève de l’archétype de la Mère.

Plus généralement, certaines recherches montrent que la première forme vivante que les nouveau-nés rencontrent à leur naissance fait « empreinte » en eux sous la forme d’une image et les conduit à se lier immédiatement à elle pour recevoir les soins dont ils ont besoin. Peu importe si cette forme appartient à une autre espèce. Certains en concluent que l’archétype, en tant que schéma inné de comportement, conduit un être vivant à rechercher une fonction de soin plus qu’un individu spécifique à son espèce d’appartenance.

Le concept d’archétype nous permet donc d’envisager que la figure projective féminine propre à notre enquête ne résulterait pas forcément d’un stéréotype de genre. Elle pourrait attester l’activation et l’actualisation de l’archétype de la Mère poussant ainsi l’utilisateur « humain » à projeter une figure féminine archétypale dans le chatbot, preuve qu’il cherche, dans l’interaction avec lui, une fonction de soin telle qu’il l’a déjà expérimentée.

Peu importe qu’il soit un programme informatique, un « individu technique », s’il donne le sentiment de « prendre soin » en aidant à choisir un produit, en conseillant une attitude juste ou en offrant des signes de reconnaissance amicaux autant qu’amoureux.

Un différentiel homme-machine auto-protecteur ?

Abordons maintenant notre seconde question. Dans notre enquête, le chatbot est généralement imaginé comme un sujet paré de caractéristiques humaines, mais sans subjectivité. Ce qui signifie que les répondants n’identifient pas pleinement leur chatbot à ce qu’ils projettent de leur propre humanité en eux. Les recherches dans le domaine de l’attachement en fournissent peut-être l’explication.

Elles indiquent en effet que les relations avec un premier pourvoyeur de soins, donne les moyens à celui qui s’attache, de pouvoir faire ultérieurement la différence entre ses congénères et les autres. C’est probablement la raison pour laquelle les répondants montrent qu’ils pourraient être en mesure de s’attacher à un chatbot qui leur fait la conversation sans pour autant le considérer comme un de leurs semblables : la conscience d’un différentiel de génération et d’existence entre l’humain et la machine – différentiel dit ontologique – limiterait ainsi voire interdirait toute identification projective.

Un tel « rempart naturel », face à l’ambition persuasive de la captologie pour laquelle la fin peut parfois justifier les moyens, pourrait rendre les utilisateurs beaucoup moins influençables voire moins dupes que ne l’envisagent les professionnels du marketing et du design conversationnel : ils jouent le jeu probablement en conscience.

Reste cette question : que faire pour protéger les plus fragiles et les plus influençables d’entre nous qui pourraient se prendre à un tel jeu et courir le risque de s’y perdre ?


Pour aller plus loin : « L’anthropomorphisme, enjeu de performance pour les chatbots », du même auteur.The Conversation

Thierry Curiale, Doctorant en sciences de l’information et de la communication et en cyberpsychologie, Conservatoire national des arts et métiers (CNAM)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.


Picto label thématiques articles Cnam Blog | Innovation | Numérique | Société