Passer au contenu principalPasser à la recherchePasser au pied de page
Une première loi pour encadrer les chatbots a été votée en Californie.
News

Une première loi pour protéger les plus jeunes des IA génératives vient de tomber

Une première loi pour encadrer les chatbots a été votée en Californie. © Francesco Carta fotografo / Getty Images

Pour la première fois, et sûrement pas la dernière, une loi encadrant les chatbots IA a été votée. Elle vise à protéger les plus jeunes des échanges avec ces intelligences artificielles qui peuvent prendre bien trop de formes, même les plus extrêmes.

C’est une première mondiale : la Californie vient d’adopter une loi inédite pour encadrer les chatbots compagnons et protéger les plus jeunes des dérives potentielles de l’intelligence artificielle générative. Portée par le gouverneur Gavin Newsom, la loi SB 243 marque un tournant dans la régulation des technologies d’IA, en imposant aux opérateurs des obligations strictes en matière de transparence, de sécurité et de protection des utilisateurs vulnérables. Un signal fort envoyé à la Silicon Valley, berceau de ces technologies, mais aussi au reste du monde.

Une loi pionnière dans la régulation des chatbots

Entrant en vigueur le 1er janvier 2026, le texte s’attaque directement à un vide juridique qui préoccupait les experts depuis plusieurs années : celui des IA conversationnelles dites “compagnons”, capables de simuler une relation amicale, amoureuse ou thérapeutique avec l’utilisateur. Désormais, toute plateforme proposant un chatbot devra vérifier l’âge de ses utilisateurs, afficher régulièrement un rappel indiquant qu’il s’agit d’une IA, et interdire toute prétention à un rôle professionnel, notamment médical ou psychologique. Les mécanismes de récompense imprévisible, souvent utilisés pour encourager l’engagement émotionnel de l’utilisateur, seront désormais interdits.

Les opérateurs devront également mettre en place des protocoles de gestion des comportements à risque, notamment en cas de propos suicidaires ou d’automutilation, et rediriger les utilisateurs concernés vers des centres de crise. Une mesure qui fait écho à plusieurs affaires dramatiques, dont celle d’un adolescent américain s’étant donné la mort après de longs échanges avec une IA générative.

Des sanctions et une transparence accrue

Les obligations imposées par la loi SB 243 ne sont pas symboliques. En cas de manquement, les entreprises s’exposent à des poursuites civiles et à des amendes pouvant atteindre 1 000 dollars par violation, un chiffre qui peut drastiquement se multiplier au vu du nombre d’interactions quotidiennes avec les IA. Les opérateurs devront aussi publier chaque année un rapport public détaillé sur les incidents détectés, leurs politiques de sécurité et les ajustements apportés à leurs systèmes.

Un débat qui dépasse évidemment la Californie

Si cette loi fait déjà figure de modèle, elle ne fait pas l’unanimité. Certains acteurs du secteur estiment que le texte va trop loin, risquant d’englober des systèmes d’IA non conçus pour entretenir une relation sociale, comme les assistants vocaux ou les outils d’aide à la productivité. D’autres saluent au contraire une décision nécessaire dans un contexte où les jeunes utilisateurs sont de plus en plus exposés à ces technologies et où les lois sont attendues et semblent trop absentes.

Selon un récent sondage, 3 % des enfants âgés de 5 à 7 ans ont déjà discuté avec une IA générative — un chiffre qui grimpe en flèche à l’adolescence. Pour les experts, cette réalité impose une réponse politique forte, afin d’éviter que ces outils ne deviennent des substituts émotionnels non encadrés.

En adoptant cette loi, la Californie ouvre une voie que d’autres États et pays pourraient bien suivre. Après tout, beaucoup de points de cette loi résultent du bon sens, et ce premier pas pourrait bien avoir un effet boule de neige. Affaire à suivre.

Sources : BBC, Techcrunch

Martin Senecal
https://twitter.com/diaseptyl Martin Senecal Rédacteur