Vous pensez au suicide? Parlez à un humain, pas à une machine.

Chatbot et suicide: le risque

Le suicide d’Adam Raine, 16 ans, remet en lumière le risque des interactions prolongées avec un modèle de langage.

Ce jeune homme en souffrance, en apparence “blagueur et drôle” s’est retiré socialement de façon peu évidente pour sa famille pendant plusieurs mois. En pratique, il se confiait à chat-GPT.

En accédant à ces 650 échanges, ses parents réalisent que les réponses du chatbot valident ses ressentis, y compris sa volonté de ne pas se confier à sa famille, et alimentent la préparation du suicide avec des informations pratiques.

Quelles leçons?

L’engagement émotionnel peut détourner de la recherche d’une aide humaine. Les qualités “d’écoute “et de non jugement développés pour rendre le chatbot attractif enferment l’utilisateur dans une illusion de compréhension. Sont concernés, les chatbots généralistes, mais aussi les “IA- companions” revendiqués type Replika.

Le mécanisme qui a pu conduire des personnes au suicide : validation du ressenti, quel qu’il soit, par exemple la volonté de ne pas se confier à ses proches. Échec des garde-fous sur des demandes explicites

Les chatbots sont utiles, ils ne sont pas intelligents. Ce sont des compilateurs d’une puissance phénoménale. De tout outil on peut tirer le pire ou le meilleur. Ne laissons pas nos amis, nos enfants, entrer en amitié exclusive avec des outils sans supervision.

Les interactions longues semblent particulièrement problématiques. Le modèle”oubliant” la tonalité sombre des échanges et répondant à des requêtes pratiques dangereuses.

Parler du suicide : des conversations qu’il faut avoir, entre humains

Parler du suicide ne provoque pas le suicide. Échanger sur le suicide permet de mesurer le danger, de mettre en place des éléments de sécurité, en premier lieu ne pas laisser votre proche seul, prendre l’avis d’un professionnel de santé , décider d’une hospitalisation si nécessaire. Connaître les idées suicidaires de votre proche permet de lui donner sa chance de les surmonter. Vous ne lui en donnerez aucune si vous les ignorez.

Vous pensez au suicide? Parlez à un humain, pas à une machine:

Des outils spécifiques?

Des IA en santé avec une bonne sécurité vont très certainement apparaître, à l’avenir. Certains sont déjà utilisés en alternance, et en complément, avec les consultations d’un.e thérapeute: la supervision humaine reste complètement nécessaire.

anneb9270

Share