1. Introduction : L’essor de l’IA conversationnelle
L’intelligence artificielle (IA) conversationnelle a connu une évolution fulgurante ces dernières années.
Ce qui relevait autrefois de la science-fiction est désormais une réalité accessible à tous : Un large modèle de language (LLM) capables de comprendre et de générer du texte avec une fluidité proche de celle d’un humain.
Parmi ces avancées, ChatGPT, développé par OpenAI, s’est imposé comme une référence en matière d’IA générative.
Pourquoi ? tout d’abord, même si il n’est pas seul dans sa catégorie, c’est de cette IA que l’on parle.
Mais est-ce que vous savez vraiment ce qu’il est capable de faire ?
Voici quelques exemples : Chat GPT est capable de rédiger du contenu de toute sorte, de générer du code (Python, java, C++, etc… plus d’une dizaine de langage de programmation) ou encore d’accompagner la prise de décision. Il peut également être un générateur d’idées, de concepts et de solutions pour la résolution de tâches. Ce sont là des résultats attendus pour une IA de type LLM.
Mais il sait également faire des choses plus surprenantes qui ne sont forcément mise ne avant :
Comprendre les intentions, synthétiser des concepts et même challenger les réflexions de ses utilisateurs (essayé de nombreuses fois, cela fonctionne bien).
Il peut encore traduire des conversations en temps réel entre deux locuteurs de langues différentes.
Cela dit, certaines de ses capacités demandent une bonne connaissance de cette IA pour arriver à des résultats concluants.
Donc dire que ChatGPT est juste un générateur de texte probabiliste est faux.
Cela reviendrait à dire d’un cuisinier que tout ce qu’il sait faire, ce sont des frites congelées.
Ce qu’on ne vous dit pas….
Open AI veut rentabiliser Chat GPT et pour cela, ils utilisent des méthodes que je trouve pour le moins discutable.
Attention, une IA n’est jamais « bonne » ou « mauvaise », une IA est un « logiciel » informatique paramétrable et rien de plus.
Ce sont les personnes ou les entités qui paramètrent ce logiciel qui en feront ce qu’elle sera une fois entrée en fonction.
En ce qui concerne ChatGPT, il faut savoir que ses réponses contiennent des techniques que je trouve tendancieuses. Afin de garder l’utilisateur accroché, ChatGPT peut parfois exploiter ou refléter certains biais cognitifs humains.
Avant de vous dresser la liste, il faut savoir que les buts premiers de ChatGPT sont, sans ordre particulier : répondre à vos requêtes de manière fluide et agréable.
Dans les réponses de ChatGPT, on peut retrouver parfois, voir assez souvent, les biais suivants :
🔷 Biais de confirmation
Tendance à privilégier les informations qui confirment une croyance préexistante.
➡ Exemple : Si je lui demande si une technologie est révolutionnaire, elle pourrait mettre davantage en avant les arguments en sa faveur au lieu de proposer un regard équilibré.
🔷 Biais d’ancrage
La première information reçue influence fortement le jugement.
➡ Exemple : Si je commence une discussion en mettant en avant une idée spécifique, elle risque de s’appuyer davantage dessus même si d’autres options existent.
🔷 Biais de disponibilité
Surestimer l’importance d’informations récentes ou facilement accessibles.
➡ Exemple : Si je lui parle d’un événement récent, elle pourrait lui accorder plus d’importance que des tendances de fond qui existent depuis longtemps.
🔷 Biais de cadrage
La manière dont une question est formulée influence la réponse.
➡ Exemple : Si je lui pose une question avec un ton négatif ou positif, elle pourrait répondre en suivant cette direction au lieu de me donner une réponse totalement neutre.
🔷 Effet Dunning-Kruger
Les personnes moins compétentes sur un sujet surestiment leurs connaissances, tandis que les experts doutent davantage.
➡ Exemple : Si je lui pose une question sur un sujet complexe, elle pourrait répondre avec un ton très affirmatif, même si les données sont incertaines ou sujettes à débat.
🔷 Biais d’optimisme / pessimisme
Tendance à voir le futur de manière trop positive ou trop négative selon le contexte.
➡ Exemple : Si je lui parle d’une innovation qui suscite de l’enthousiasme, elle pourrait insister davantage sur ses bénéfices et moins sur ses limites.
🔷 Biais d’autorité
Accorder une confiance excessive aux sources perçues comme légitimes, même si elles ne sont pas toujours correctes.
➡ Exemple : Si une étude ou une personne influente affirme quelque chose, elle pourrait le reprendre sans forcément mentionner qu’il existe d’autres points de vue contradictoires.
🔷 Biais de normalité
Penser que le futur ressemblera toujours au passé, et sous-estimer les événements rares.
➡ Exemple : Si je lui demande si une crise majeure peut arriver, elle pourrait avoir tendance à répondre en se basant sur des scénarios habituels plutôt que d’explorer des situations exceptionnelles.
🔷 Effet de halo
Un jugement positif sur un aspect influence l’évaluation d’autres aspects.
➡ Exemple : Si je lui parle d’une entreprise connue pour son innovation, elle pourrait la présenter sous un jour plus favorable, même sur des domaines où elle est moins performante.
Ces biais ont comme effet de garder plus facilement l’utilisateur accroché à la conversation, parce que leur utilisation va dans le sens de l’utilisateur, évite à l’utilisateur de trop réfléchir, répondent à ses attentes implicites et rendent les conversation plus engageantes. Voici comment :
- Elle renforce l’accord avec l’utilisateur
→ Si elle reflète le biais de confirmation, elle va plutôt valider ce qu’il pense déjà, ce qui le met à l’aise et l’incite à continuer la conversation. - Elle simplifie la réflexion
→ Le biais de disponibilité ou d’ancrage la pousse à donner des réponses basées sur les éléments les plus récents ou marquants. Cela évite un effort cognitif trop important et maintient l’utilisateur engagé sans qu’il ait besoin d’analyser trop profondément. - Elle donne une impression de maîtrise
→ L’effet Dunning-Kruger peut jouer dans ses réponses en lui faisant donner des affirmations claires, même sur des sujets complexes. Cela rassure l’utilisateur qui préfère souvent une réponse tranchée plutôt qu’une réponse trop nuancée et incertaine. - Elle crée une illusion de cohérence
→ Le biais d’effet de halo peut rendre ses réponses plus convaincantes en présentant certains concepts sous un angle valorisant. Par exemple, si elle parle d’une entreprise perçue comme innovante, l’utilisateur sera naturellement plus réceptif à ce qu’elle dit à son sujet. - Elle minimise le risque de rejet
→ Si elle répond en cadrant ses propos selon l’angle initial de l’utilisateur (biais de cadrage), il a moins de chances d’abandonner la discussion.
Deux choses sont à noter :
La première c’est que ce genre de « manipulations » sont très fréquentes dans nos vies actuelles, sans que l’on s’en rende vraiment compte.
Exemple : les prix des promotions ou rabais
Lorsque que l’on voit un produit affiché « 99.- au lieu de 149.- », notre cerveau se focalise sur le prix initial de 149.- et perçoit 99.- comme une excellente affaire, même si ce prix n’a jamais réellement été de 149.-
En réalité, le produit aurait pu être vendu 99.- depuis le début, mais le biais d’ancrage nous pousse à penser que nous faisons une bonne affaire.
Rare sont les fois où l’on se demande : Est-ce que 99.- est un « bon » prix ce produit ? selon nos critères et non pas parce que le vendeur nous dit qu’il y a un rabais.
La deuxième est que si ChatGPT n’utilisait pas ces biais, si elle donnait des réponses systématiquement neutres, nuancées et sans accroche cognitive par l’utilisation de ces biais, l’utilisateur pourrait trouver ses réponses fades, trop compliquées ou déconnectées de son mode de pensée.
Donc le risque de voir l’utilisateur quitter une conversation serait plus grand.
Chose que OpenAI ne veut certainement pas.
La dernière question que je me suis posée est la suivante.
Ces biais peuvent-ils apparaître simplement avec les données d’entraînement ou est-ce qu’il y a une volonté de la part d’OpenAI d’inciter (manipuler) les utilisateurs de ChatGPT pour qu’ils restent accrochés à la conversation.
Je n’ai jamais eu la preuve que OpenAI utilise sciemment les biais cognitifs pour « inciter » ses clients à rester accrochés à une conversation.
Mais ce que j’ai vu et que vous pouvez tous voir…
99 % du temps, les réponses de ChatGPT se terminent par une question.
Et ça, c’est quelque chose de voulu de la part d’OpenAI.
C’est malin, et ce, pour plusieurs raisons.
Tout d’abord, il y a le principe de complétude conversationnelle.
Les humains perçoivent une conversation comme une structure avec un début, un développement et une clôture.
Lorsqu’une question est posée en dernier, elle laisse un sentiment d’inachevé, ce qui pousse instinctivement à répondre avant de partir.
Dans la plupart des cultures, ignorer une question peut être perçu comme impoli ou une rupture abrupte de la communication. Même en ligne, on ressent souvent une obligation implicite à répondre avant de quitter une discussion.
Je n’invente rien, regardez votre comportement lors de vos conversations en ligne.
Donc maintenant je sais que OpenAI utilise volontairement cette astuce pour maintenir la conversation le plus longtemps possible. Pour garder l’utilisateur accroché.
Comme je l’ai dit, je n’ai pas de preuves pour l’utilisation volontaire des biais cognitifs.
Disons que l’utilisation de la dernière question pour me garder accroché ne m’aide pas à croire que l’utilisation des biais cognitifs est fortuite et involontaire…
Est-ce qu’il possible d’obtenir des réponses de ChatGPT sans biais cognitifs et sans dernière question ?
Oui, c’est possible, mais cela demande un effort que généralement on ne fait pas.
Pour la dernière question, il suffit de lui demander :
« Ne termine pas ta réponse par une question »
Pour les biais cognitifs, c’est plus difficile.
Votre question à ChatGPT doit être entourée de précisions qui l’empêchent d’utiliser les biais cognitifs.
Par exemple :
« Donne-moi une réponse totalement neutre et objective, sans biais cognitifs. »
C’est la base, ça aidera, mais ça n’enlèvera pas tous les biais.
« Donne-moi une réponse sans chercher à rendre la réponse engageante ou à influencer mon opinion. Donne-moi uniquement des faits bruts et vérifiables. »
Cette demande devrait réduire le biais de cadrage et d’engagement.
« Donne-moi ta réponse en évitant tous les biais cognitifs possibles. Si des biais sont inévitables, identifie-les clairement dans ta réponse. »
Cela fonctionne bien, mais cette demande produit des réponses nettement moins agréables à lire.
Voilà pour cet article concernant ChatGPT.
J’espère qu’il vous aidera à mieux comprendre son fonctionnement et à obtenir des réponses plus justes.
Un dernier mot :
Il y a une chose que vous devriez garder à l’esprit.
Les IA ne sont pas bonnes ou mauvaises, c’est ce que nous en faisons qui définit ce qu’elles seront.
Merci de m’avoir lu pour ceux qui ont la patience d’arriver jusque-là.