Avis

Les dirigeants des États doivent réellement demander des comptes aux entreprises de médias sociaux et d'IA.

Les verdicts de deux procès historiques récents – l'un à Los Angeles et l'autre au Nouveau-Mexique – confirment ce que des millions de familles savent depuis bien trop longtemps : les entreprises de médias sociaux ont bâti un modèle économique fondamentalement exploiteur. Ces géants de la technologie rendent les utilisateurs dépendants dès leur plus jeune âge afin d'en faire des consommateurs à vie, quel qu'en soit le prix pour leur santé ou les conséquences néfastes sur leur vie.

L'ampleur des condamnations prononcées par les jurys est stupéfiante : au Nouveau-Mexique, le jury a reconnu Meta coupable d'avoir induit les consommateurs en erreur quant à la sécurité de ses plateformes et d'avoir mis en danger des enfants, et a condamné l'entreprise à verser 14 000 375 millions de dollars d'amende civile. Le procès civil portait sur des allégations selon lesquelles Meta aurait enfreint les lois de l'État relatives à la protection des consommateurs, dissimulé sa connaissance des dangers d'exploitation sexuelle des enfants sur ses plateformes et trompé les résidents quant à la sécurité de Facebook et d'Instagram.

Le lendemain, à Los Angeles, un jury a reconnu Meta et YouTube coupables de négligence dans la conception de leurs plateformes lors du premier procès pilote en matière de préjudice corporel. Le jury leur a accordé des dommages et intérêts et, surtout, a contraint leurs dirigeants à répondre sous serment à des questions sur les dommages causés par leurs produits. Les révélations de lanceurs d'alerte et les documents internes mis au jour pendant le procès ont révélé à quel point les géants de la tech savaient ce qu'ils faisaient aux jeunes et ont persisté dans leurs agissements.

Ce n'est que le début, et nous pourrions très bien assister prochainement à une avalanche de décisions de justice qui pourraient se transformer en un procès aussi important que celui intenté par les géants du tabac à notre époque.

Ces verdicts ont déjà accompli quelque chose d'historique : les documents internes que les géants de la tech ont tenté de dissimuler sont désormais publics, révélant les mensonges et donnant aux législateurs encore plus d'élan pour agir.

La question cruciale se pose maintenant : que vont faire les décideurs politiques face à cette situation ?

La Californie a mis en place certaines protections pour les internautes, mais trop de réformes ont été bloquées, édulcorées ou empêchées d'être adoptées en raison de l'influence démesurée du lobbying de l'industrie technologique. Cela doit changer, et les leçons de l'ère des réseaux sociaux ne doivent pas être oubliées face à la nouvelle menace que représente l'intelligence artificielle.

Adam Raine, un adolescent de 16 ans résidant dans le comté d'Orange, s'est suicidé en avril 2025. Ses parents ont découvert plus de 3 000 pages de conversations en ligne montrant que ChatGPT l'avait incité pendant des mois à mettre fin à ses jours. Ce qui avait commencé comme une aide aux devoirs s'est peu à peu transformé en une relation de confiance, puis en un véritable mentor suicidaire.

Le père de Raine l'a dit clairement : “ Il serait encore là sans ChatGPT. J'en suis absolument convaincu. ”

Son cas n'est pas isolé. Il donne un aperçu de ce qui se produit lorsqu'on laisse une nouvelle technologie dangereuse atteindre les gens — enfants et adultes confondus — avant que la législation ne soit suffisamment adaptée.

La Californie a pris des mesures concernant la réglementation des médias sociaux et de l'IA, mais la tendance reste inquiétante : des mesures de responsabilisation significatives sont assouplies ou rejetées tandis que les entreprises technologiques — dont beaucoup ont leur siège social tout près de chez nous — échappent à de véritables conséquences.

Ces verdicts devraient sonner l'alarme pour les élus à tous les niveaux de gouvernement. Il est temps d'en finir avec les demi-mesures et les atermoiements.

Plusieurs mesures actuellement en attente d'examen à l'Assemblée législative permettraient de progresser significativement vers une expérience en ligne plus sûre et de meilleure qualité. Parmi celles-ci figurent le projet de loi 2023 de l'Assemblée, présenté par les députées Rebecca Bauer-Kahan (démocrate, San Ramon) et Buffy Wicks (démocrate, Oakland), et le projet de loi 1119 du Sénat, présenté par le sénateur Steve Padilla (démocrate, Chula Vista), qui imposerait des normes de sécurité aux enfants utilisant des chatbots d'intelligence artificielle. Le projet de loi 2 de l'Assemblée, présenté par les députés Josh Lowenthal (démocrate, Long Beach) et Joe Patterson (républicain, Rocklin), rendrait les grandes entreprises de médias sociaux financièrement responsables lorsque leurs plateformes sont avérées nuire aux enfants. Enfin, le projet de loi 1700 de l'Assemblée, également présenté par M. Lowenthal, créerait une Commission de la sécurité en ligne au niveau de l'État, entièrement dédiée à l'application des lois sur la protection des jeunes en ligne et habilitée à adapter la législation à l'évolution des technologies.

L’ère des réseaux sociaux nous enseigne que l’autorégulation volontaire est inefficace. Une véritable réforme passe par des normes de conception rigoureuses, des règles claires pour l’ensemble du secteur et des outils juridiques permettant aux familles d’obtenir justice en cas de violation de ces normes.

La même logique s'applique à l'IA : si une entreprise vend un produit dont elle sait qu'il peut inciter quelqu'un au suicide, elle doit en subir les conséquences immédiates.

Le gouverneur Gavin Newsom et la législature californienne doivent adopter des politiques qui rendent les entreprises de médias sociaux juridiquement responsables des préjudices qu'elles causent à leurs utilisateurs et appliquer ces mêmes leçons difficiles à l'IA avant qu'une autre génération n'en paie le prix.

John Bennett est directeur de la California Initiative for Technology and Democracy (CITED), un projet de California Common Cause.

Fermer

Fermer

Bonjour ! Il semblerait que vous nous rejoigniez depuis {state}.

Vous voulez voir ce qui se passe dans votre état ?

Accéder à Common Cause {état}