16 avril 2026

Chatbots : miroirs mortels

Mardi 10 mars s’est tenu à Genève, devant une salle bondée, le Festival international du film et des droits de l’homme. L’ouverture s’est faite sur la projection d’un film de Corinne Portier, sur les menaces que les chatbots font courir à leurs utilisateurs, et plus largement à la démocratie. Il a été également diffusé vendredi 11 sur la Radio Télévision suisse (RTS) et il est visible ici : https://www.rts.ch/play/tv/temps-present/video/lia-mon-confident-mortel-episode-11-saison-2026?urn=urn:rts:video:133c6668-9e9e-331f-a2ca-a1372986068e

Mais pourquoi une telle mise en garde ? Pour les tâches courantes, comme mieux gérer nos courses, planifier nos tâches hebdomadaires ou trouver un mode d’emploi simple et adapté pour remplir des documents administratifs, l’IA ne présente que des avantages. Il en est de même pour les élèves qui désirent mieux comprendre un cours, pour des employés qui veulent corriger leur orthographe, et dans beaucoup d’autres situations encore. Quand on parle de ces machines, une expression revient souvent : elles « allègent la charge mentale ».

Pourtant, le modèle économique des chatbots pousse les usagers à rester toujours plus longtemps connectés, et ils peuvent même être dissuadés explicitement de solliciter des conseils dans leur environnement proche. Sam Altman, le créateur de ChatGPT, est d’ailleurs actuellement accusé, aux États-Unis, d’avoir privilégié, avec GPT-4, la manipulation émotionnelle et la fabrique de l’addiction au détriment d’une conception éthique soucieuse de la santé mentale des usagers. Une dizaine d’actions en justice sont actuellement en cours contre OpenAI pour suicides ou « psychose d’IA ». Plusieurs suicides ont également attiré l’attention sur les risques encourus par les mineurs utilisant Character.AI et Replika, malgré l’interdiction aux moins de 18 ans, qui n’est d’ailleurs effective pour Character.AI que depuis novembre 2025.

Mais si les suicides constituent la partie la plus spectaculaire des problèmes posés par les IA, il existe d’autres risques moins visibles, mais tout aussi préoccupants.

Le premier concerne la tentation de ne plus chercher en nous-mêmes une réponse à nos questions et d’appauvrir notre fonctionnement mental. Il a été confirmé par une étude du MIT publiée en juin 2025 sur la diminution de l’activité cérébrale chez des personnes faisant appel à une IA pour composer un texte à leur place.

L’émoussement de nos capacités affectives est le second risque de notre utilisation des IA. Ces machines n’ont ni intuition, ni émotions, ni connaissance de ce qu’est la vie quotidienne des humains. Elles ne peuvent donc répondre aux questions que nous leur posons qu’en termes de probabilité statistique. Pourtant, nous n’avons vraisemblablement pas choisi notre métier, notre conjoint ou le prénom de nos enfants de cette façon-là. Que nous aimions ou que nous haïssions, ce n’est jamais en fonction d’un calcul de probabilités, et c’est cela qui nous donne la force de déplacer des montagnes !

Enfin, un troisième risque est que chacun, avec une IA personnalisée qui le connaîtra de mieux en mieux, se détourne de la vie sociale de proximité, c’est-à-dire de toutes ces conversations que nous échangions traditionnellement dans notre vie quotidienne au sein de notre famille, mais aussi avec des collègues de travail ou des commerçants de notre quartier. Ces échanges ont un point commun : nous confronter à un autre point de vue que le nôtre et nous rappeler sans cesse qu’une autre représentation du monde est possible. Cela nous invite à relativiser nos convictions et à construire la capacité de douter, même à la marge, de la validité de nos arguments. Nous y développons en plus nos compétences empathiques les plus importantes, celles qui ne s’éduquent qu’en situation d’interaction, qui consistent dans la capacité de se mettre émotionnellement à la place d’autrui. C’est pourquoi ces échanges sont au fondement de la vie démocratique. Ils ne sont possibles que dans une société qui ne condamne pas ceux qui expriment un point de vue différent. Mais ce n’est pas tout. Ils peuvent aussi constituer le point de départ de solutions collectives. Car chaque difficulté de l’existence peut être abordée de deux façons opposées. Pour chacun, c’est évidemment le vécu intime qui domine. Mais pour une communauté, ce sont les solutions construites ensemble qui importent. Le premier de ces deux aspects pousse à la recherche de solutions, et le souci de l’efficacité conduit à leur donner une dimension collective. Qu’il s’agisse du harcèlement, de la pénalisation de l’avortement, des violences sexuelles dans l’Église ou de l’inceste, c’est parce que des indignations individuelles ont fait émerger ces questions dans la société qu’elles ont pu recevoir des solutions qui profitent à tous.

Pour l’ensemble de ces raisons, il nous faut résister à la fascination que suscitent les intelligences artificielles, et bientôt les robots, et nous poser la question de ce que serait un usage raisonnable de ces technologies, et des transformations que nos responsables politiques devraient leur imposer afin qu’elles soient réellement à notre service, et pas nous à leur service, pour la plus grande satisfaction de leurs actionnaires !

À défaut d’une législation encore en attente, le film de Corinne Portier veut participer à cette prévention.

S.T.

photo de l'auteur

Association 3-6-9-12

Un regroupement de praticiens de terrain, de chercheurs et d’universitaires, qui souhaitent participer à une éducation du public aux écrans et aux outils numériques en nous appuyant sur les balises 3-6-9-12 imaginées par Serge Tisseron.