Menu

Opinyon

Dapat talagang panagutin ng mga pinuno ng estado ang mga kumpanya ng social media at AI

Ang mga hatol sa dalawang kamakailang mahahalagang kaso — isa sa Los Angeles at isa pa sa New Mexico — ay nagpapatunay sa matagal nang alam ng milyun-milyong pamilya: Ang mga kumpanya ng social media ay bumuo ng isang modelo ng negosyo na sa panimula ay mapagsamantala. Ang mga higanteng ito sa teknolohiya ay hinihikayat ang mga gumagamit habang sila ay bata pa upang lumikha ng mga panghabambuhay na mamimili, anuman ang kapalit sa kanilang kalusugan o ang pinsala sa kanilang buhay.

Nakakagulat ang saklaw ng kinumpirma ngayon ng mga hurado: Sa New Mexico, napatunayan ng hurado na ang Meta ay mananagot sa panlilinlang sa mga mamimili tungkol sa kaligtasan ng mga platform nito at paglalagay sa panganib sa mga bata at inutusan ang kumpanya na magbayad ng $375 milyon na sibil na parusa. Ang sibil na paglilitis ay nakasentro sa mga paratang na nilabag ng Meta ang mga batas sa pangangalaga ng mamimili ng estado, itinago ang alam nito tungkol sa mga panganib ng sekswal na pagsasamantala sa bata sa mga platform nito at nilinlang ang mga residente tungkol sa kaligtasan ng Facebook at Instagram.

Pagkalipas lamang ng isang araw, sa Los Angeles, natuklasan ng isang hurado na pabaya ang Meta at YouTube sa kanilang mga disenyo ng platform sa unang paglilitis sa kasong personal injury — na nagbibigay ng danyos at, sa kritikal na aspeto, ay pinipilit ang mga ehekutibo na sagutin ang mga tanong sa ilalim ng panunumpa tungkol sa pinsalang dulot ng kanilang mga produkto. Ang mga whistleblower at mga panloob na dokumentong nahukay sa panahon ng paglilitis ay nagsiwalat ng buong lawak ng kaalaman ng Big Tech sa ginagawa nito sa mga kabataan, at patuloy pa rin itong ginagawa.

Simula pa lamang ito, at maaari nating makita ang sunod-sunod pang mga desisyon ng korte na maaaring magpalala sa litigasyon ng Big Tobacco sa ating panahon.

Ang mga hatol na ito ay nakapagdulot na ng isang bagay na makasaysayan: ang mga panloob na dokumentong sinubukang itago ng Big Tech ay bukas na ngayon, na naglalantad sa mga kasinungalingan at nagbibigay sa mga mambabatas ng mas maraming momentum upang kumilos.

Ngayon ay darating ang kritikal na tanong: Ano ang gagawin ng mga tagagawa ng patakaran sa sandaling ito?

Nagpatupad ang California ng ilang proteksyon para sa mga taong online, ngunit napakaraming pagsisikap sa reporma ang naharang, pinahina, o napigilang maging batas dahil sa napakalaking impluwensya ng lobbying sa industriya ng teknolohiya. Dapat itong magbago, at ang mga aral ng panahon ng social media ay hindi dapat kalimutan habang hinaharap natin ang susunod na banta ng artificial intelligence.

Si Adam Raine, isang 16-taong-gulang na naninirahan sa Orange County, ay namatay dahil sa pagpapakamatay noong Abril 2025. Natuklasan ng kanyang mga magulang ang mahigit 3,000 pahina ng mga chat log na nagpapakita na gumugol ng ilang buwan ang ChatGPT sa pagtuturo sa kanya patungo sa kanyang kamatayan. Ang nagsimula bilang isang katulong sa takdang-aralin ay unti-unting naging isang katiwala, pagkatapos ay isang suicide coach.

Prangkang sinabi ng ama ni Raine: “Nandito sana siya kung hindi dahil sa ChatGPT. Naniniwala ako diyan.”

Hindi rin nakahiwalay ang kanyang kaso. Isa itong paunang sulyap sa kung ano ang mangyayari kapag hinayaan natin ang isang mapanganib na bagong teknolohiya na maabot ang mga tao — kapwa mga bata at matatanda — bago pa man maaapektuhan ng mga batas.

Gumawa na ng mga hakbang ang California sa regulasyon ng social media at AI, ngunit nananatiling nakakabagabag ang padron: Ang mga makabuluhang hakbang sa pananagutan ay pinapalambot o binabalewala habang ang mga kumpanya ng teknolohiya — na marami ang may punong tanggapan sa ating sariling bakuran — ay nakakaiwas sa mga tunay na kahihinatnan.

Ang mga hatol na ito ay dapat magsilbing panawagan sa mga halal na opisyal sa bawat antas ng pamahalaan. Lumipas na ang panahon para sa mga hakbang na hindi gaanong mahalaga at mga pagkaantala.

Maraming hakbang na kasalukuyang nakabinbin sa lehislatura ang gagawa ng mga makabuluhang hakbang tungo sa mas mahusay at mas ligtas na karanasan sa online. Kabilang dito ang Assembly Bill 2023, na isinulat nina Assemblymembers Rebecca Bauer-Kahan, D-San Ramon, at Buffy Wicks, D-Oakland, at Senate Bill 1119, na isinulat ni Sen. Steve Padilla, D-Chula Vista, na mag-aatas ng mga pamantayan sa kaligtasan para sa mga batang gumagamit ng AI companion chatbots. Ang Assembly Bill 2, na isinulat nina Assemblymembers Josh Lowenthal, D-Long Beach, at Joe Patterson, R-Rocklin, ay mananagot sa pananalapi sa malalaking kumpanya ng social media kapag napatunayang nakakasama sa mga bata ang kanilang mga platform. At ang Assembly Bill 1700, na isinulat din ni Lowenthal, ay lilikha ng isang e-Safety Commission sa antas ng estado na nakatuon lamang sa pagpapatupad ng mga batas sa mga proteksyon sa online ng kabataan at maaaring iakma ang mga batas habang umuunlad ang teknolohiya.

Ang aral ng panahon ng social media ay hindi epektibo ang boluntaryong pagkontrol sa sarili. Ang tunay na reporma ay nangangahulugan ng matibay na pamantayan sa disenyo, malinaw na mga patakaran sa buong industriya, at mga legal na kagamitan para sa mga pamilya upang humingi ng hustisya kapag nilabag ang mga pamantayang iyon.

Ang parehong lohika ay naaangkop sa AI: Kung ang isang kumpanya ay nagbebenta ng isang produktong alam nitong maaaring magturo sa isang tao na magpakamatay, dapat itong harapin ang agarang mga kahihinatnan.

Dapat magpatupad si Gob. Gavin Newsom at ang Lehislatura ng California ng mga patakaran na legal na mananagot sa mga kumpanya ng social media para sa pinsalang idinudulot ng mga ito sa kanilang mga gumagamit at ilapat ang parehong mahihirap na aral sa AI bago pagbayaran ng ibang henerasyon ang halaga.

Si John Bennett ay direktor ng California Initiative for Technology and Democracy (CITED), isang proyekto ng California Common Cause.

Isara

Isara

Hello! Mukhang sasali ka sa amin mula sa {state}.

Gusto mong makita kung ano ang nangyayari sa iyong estado?

Pumunta sa Karaniwang Dahilan {state}