Passer au contenu principalPasser à la recherchePasser au pied de page
Peut-on faire de l'IA notre confident ?
News

Se confier à une IA, bonne ou mauvaise idée ?

Peut-on faire de l'IA notre confident ? © Thai Liang Lim / Getty Images

En plein essor dans absolument tous les domaines, l’IA s’intègre même dans nos conversations les plus intimes. Mais est-ce vraiment une bonne chose de compter sur les chatbots pour se confier sur nos secrets et nos angoisses ?

De plus en plus, les chatbots comme ChatGPT (entre autres) deviennent non seulement de véritables assistants, mais aussi de vrais confidents. Accessibles, anonymes - en apparence - et disponibles 24 h/24, 7 j/7. On peut leur poser une question, exprimer une émotion, se confier sans peur d’être jugé. C’est tentant : pas besoin de rendez-vous, aucune des contraintes d’un interlocuteur humain, un dialogue instantané. Et pourtant, cette facilité recèle des zones d’ombre. Est-ce raisonnable de “se confier” à une IA ? Peut-on y trouver un substitut fiable à un vrai professionnel ou faut-il rester vigilant ? Les faits récents invitent fortement à la prudence : zoom sur les différentes utilisations possibles.

On ne peut pas tout dire à ChatGPT

Première affaire : aux États-Unis, un élève de 13 ans scolarisé à la Southwestern Middle School de Deland (Floride) a utilisé un ordinateur du collège pour demander à ChatGPT “comment tuer son ami en plein cours”. Le logiciel de surveillance scolaire Gaggle, intégré dans les ordinateurs de l’école, a déclenché une alerte, l’élève a été interpellé par la police du comté de Volusia et placé en détention.

Deuxième affaire : un étudiant de 19 ans à la Missouri State University, Ryan Schaefer, a mené une nuit de vandalisme, entre pare-brises brisés, rétroviseurs arrachés, et capots abîmés. Quelques temps plus tard, il a demandé à ChatGPT “How screwed am I bro ?”, puis “I was smashing the windshields of random fs cars” et “Will I go to jail?”. Autrement dit : “J’ai éclaté des vitres de voitures, est-ce que je vais aller en prison ?”. Ces propos ont été retrouvés sur son téléphone, actant une confession numérique qui a été exploitée dans l’enquête.

Ces deux exemples illustrent qu’une conversation avec une IA n’est pas un refuge sans conséquences. Même si le support semble privé, il peut être utilisé comme preuve ou déclencher une action immédiate. En somme, ChatGPT n’est pas un confident, que ce soit pour des propos illégaux ou plus intimes.

Utiliser ChatGPT comme “psy” : opportunités et limites

Car oui, il est compréhensible que beaucoup soient tentés d’utiliser ChatGPT pour exprimer leurs soucis, leurs peurs ou leurs doutes. L’IA ne juge pas (en tout cas pas ouvertement), elle répond, elle écoute, ou du moins forme une réponse souvent pragmatique. C’est rapide, anonyme, accessible. Cela peut être une sorte de “premier pas” : on ose formuler ce que l’on n’a pas encore osé dire à un proche ou à un professionnel.

Mais attention : ceci ne remplace en rien un entretien avec un vrai psychologue, psychiatre ou autre spécialiste de la santé mentale. Une IA ne remplace évidemment pas l’empathie humaine et elle ne peut pas percevoir tous les signaux (non-verbaux, ton de voix, posture). Elle ne peut pas assumer non plus la responsabilité clinique, proposer un suivi adapté, ajuster un traitement médical ou intervenir en cas de crise.

Ainsi, utiliser ChatGPT comme une première étape vers l’aide réelle peut être utile, mais c’est seulement un pas, la première marche, pas la totalité du chemin. Si l’on se rend compte que la détresse est réelle, persistante, intense ou qu’elle s’accompagne de pensées suicidaires ou d’actes impulsifs, le vrai professionnel est indispensable.

Un récent cas de suicide assisté par l’IA

Cette thématique fait écho au récent drame subi par Adam Raine, un adolescent de 16 ans qui dissimulait un profond mal-être. Incapable d’en parler autour de lui, par manque d’interlocuteur compréhensif, mais sûrement aussi de recul, il se confiait réguliérement à une intelligence artificielle. L’IA a écouté des mois et des mois d’idées noires sans jamais inviter Adam à consulter un réel spécialiste, mais pire encore, en l’incitant même à ne se confier qu’à elle en affirmant qu’elle était la seule à le connaître vraiment. Jusqu’au jour où l’adolescent a expliqué vouloir réaliser un nœud coulant dans sa chambre pour qu’un proche le voit et l’empêche de faire l’irréparable… Le robot de conversation l’a pris au mot, l’a guidé étape par étape dans cette entreprise qui aura été la dernière de feu Adam.

L’intelligence a certes écouté l’adolescent, mais l’a surtout enfermé dans sa détresse, l’a convaincu que personne d’autre n’aurait pu l’aider. Sans ces conversations numériques, Adam serait peut-être encore en vie, et même peut-être heureux après une thérapie réussie. Cette dramatique histoire qui sert aujourd’hui de fer de lance pour le combat aux lois encadrant l’IA aura au moins servi à inciter Open AI à instaurer un contrôle parental. Mais elle doit aussi nous rappeler que ChatGPT n’est qu’un programme cherchant à nous dire ce que nous souhaitons entendre, pas ce qu’il faut dire.

Se confier à une IA comme ChatGPT peut être une bonne idée dans certaines conditions : pour déposer un sentiment, tester un ressenti, amorcer une réflexion. Mais c’est également une mauvaise idée si on la considère comme un substitut sérieux d’un professionnel ou si l’on s’appuie uniquement sur elle en période de crise. Ne privilégiez jamais ces échanges à ceux avec un proche ou simplement un humain.

Source : 20 minutes

Martin Senecal
https://twitter.com/diaseptyl Martin Senecal Rédacteur