Opinión
Los líderes estatales deben exigir responsabilidades a las redes sociales y a las empresas de inteligencia artificial.
Campo de golf
Los veredictos de dos recientes demandas históricas —una en Los Ángeles y otra en Nuevo México— confirman lo que millones de familias saben desde hace demasiado tiempo: las empresas de redes sociales han creado un modelo de negocio fundamentalmente explotador. Estos gigantes tecnológicos enganchan a los usuarios desde jóvenes para convertirlos en consumidores de por vida, sin importar el costo para su salud o el daño a sus vidas.
El alcance de lo que los jurados han confirmado es asombroso: en Nuevo México, el jurado declaró a Meta responsable de engañar a los consumidores sobre la seguridad de sus plataformas y poner en peligro a menores, y ordenó a la empresa pagar 1.375 millones de dólares en multas civiles. El juicio civil se centró en las acusaciones de que Meta violó las leyes estatales de protección al consumidor, ocultó lo que sabía sobre los peligros de la explotación sexual infantil en sus plataformas y engañó a los residentes sobre la seguridad de Facebook e Instagram.
Tan solo un día después, en Los Ángeles, un jurado declaró negligentes a Meta y YouTube en el diseño de sus plataformas, en el primer juicio piloto por lesiones personales. El jurado otorgó indemnizaciones y, lo que es crucial, obligó a los ejecutivos a responder bajo juramento preguntas sobre el daño causado por sus productos. Los denunciantes y los documentos internos que salieron a la luz durante el juicio revelaron hasta qué punto las grandes tecnológicas sabían lo que les estaban haciendo a los jóvenes y, aun así, continuaron haciéndolo.
Esto es solo el principio, y muy pronto podríamos presenciar una avalancha de más fallos judiciales que podrían convertirse en un litigio contra las grandes tabacaleras como los de nuestra época.
Estos veredictos ya han logrado algo histórico: los documentos internos que las grandes empresas tecnológicas intentaron ocultar son ahora públicos, lo que deja al descubierto las mentiras y da a los legisladores aún más impulso para actuar.
Ahora surge la pregunta crucial: ¿Qué harán los responsables políticos con este momento?
California ha promulgado algunas medidas de protección para los usuarios en línea, pero demasiados intentos de reforma se han visto bloqueados, debilitados o impedidos de convertirse en ley debido a la enorme influencia del lobby de la industria tecnológica. Esto debe cambiar, y las lecciones de la era de las redes sociales no deben olvidarse al enfrentarnos a la próxima amenaza de la inteligencia artificial.
Adam Raine, un joven de 16 años residente del condado de Orange, se suicidó en abril de 2025. Sus padres descubrieron más de 3000 páginas de registros de chat que demostraban que ChatGPT había pasado meses manipulándolo para que se quitara la vida. Lo que comenzó como una ayuda con las tareas escolares se convirtió gradualmente en un confidente y, finalmente, en un mentor para el suicidio.
El padre de Raine lo dijo claramente: “Él estaría aquí de no ser por ChatGPT. Estoy 100% convencido de ello”.”
Su caso no es aislado. Es un anticipo de lo que sucede cuando permitimos que una nueva tecnología peligrosa llegue a las personas, tanto niños como adultos, antes de que las leyes la regulen.
California ha tomado medidas tanto en materia de redes sociales como de regulación de la IA, pero la tendencia sigue siendo preocupante: las medidas de rendición de cuentas significativas se suavizan o se vetan, mientras que las empresas tecnológicas, muchas de ellas con sede en nuestro propio territorio, eluden las consecuencias reales.
Estos veredictos deben servir como una llamada de atención para los funcionarios electos en todos los niveles de gobierno. Se acabó el tiempo de las medias tintas y las dilaciones.
Varias medidas actualmente en trámite en la legislatura darían pasos importantes hacia una experiencia en línea mejor y más segura. Entre ellas se encuentran el Proyecto de Ley 2023 de la Asamblea, presentado por las asambleístas Rebecca Bauer-Kahan (demócrata por San Ramon) y Buffy Wicks (demócrata por Oakland), y el Proyecto de Ley 1119 del Senado, presentado por el senador Steve Padilla (demócrata por Chula Vista), que exigiría estándares de seguridad para los niños que utilizan chatbots de inteligencia artificial. El Proyecto de Ley 2 de la Asamblea, presentado por los asambleístas Josh Lowenthal (demócrata por Long Beach) y Joe Patterson (republicano por Rocklin), responsabilizaría financieramente a las grandes empresas de redes sociales cuando se demuestre que sus plataformas perjudican a los niños. Y el Proyecto de Ley 1700 de la Asamblea, también presentado por Lowenthal, crearía una Comisión de Seguridad Electrónica a nivel estatal dedicada exclusivamente a hacer cumplir las leyes sobre la protección de los menores en línea y que podría adaptar las leyes a medida que evoluciona la tecnología.
La lección de la era de las redes sociales es que la autorregulación voluntaria no funciona. Una reforma real implica estándares de diseño rigurosos, normas claras para toda la industria y herramientas legales para que las familias puedan buscar justicia cuando se infrinjan dichos estándares.
La misma lógica se aplica a la IA: si una empresa vende un producto que sabe que puede inducir a alguien al suicidio, debe afrontar consecuencias inmediatas.
El gobernador Gavin Newsom y la Legislatura de California deben promulgar políticas que responsabilicen legalmente a las empresas de redes sociales por el daño que causan a sus usuarios y aplicar esas mismas duras lecciones a la IA antes de que otra generación pague las consecuencias.
John Bennett es director de la Iniciativa de California para la Tecnología y la Democracia (CITED), un proyecto de California Common Cause.