Guvernatorul Pennsylvania, Josh Shapiro, îndrumă agențiile de stat să dezvolte reglementări mai stricte pentru chatbot-urile de inteligență artificială, despre care spune că pot fi înșelătoare și dăunătoare copiilor. Noile restricții ar putea adăuga Pennsylvania la o listă tot mai mare de state care încearcă să impună balustrade, pe măsură ce mai mulți copii folosesc chatbot-uri AI precum ChatGPT, Meta AI și Gemini.
„Acest spațiu evoluează rapid”, a spus Shapiro în timpul său adresa bugetului saptamana trecuta. „Trebuie să acționăm rapid pentru a ne proteja copiii.”
În timp ce majoritatea adolescenților din SUA folosesc chatboți, unul din trei a raportat că le folosește pentru interacțiunea socială și relații, potrivit unui sondaj realizat de anul trecut de organizația nonprofit. Media de bun simț. Acei adolescenți au raportat că au folosit chatbot-uri pentru exersarea conversației, sprijin emoțional, jocuri de rol, prietenii și interacțiuni romantice. Shapiro a spus că fără reglementări, copiii și ceilalți ar putea fi vulnerabili la vătămări emoționale.
„Unii copii sunt prea mici pentru a înțelege diferența dintre AI și o persoană reală”, a spus Shapiro.
Google a soluționat mai multe procese în ianuarie care pretindeau că caracterul său.AI a contribuit la crize de sănătate mintală și la sinucideri în rândul tinerilor, inclusiv un caz adus de o mamă din Florida a cărei fiul s-a sinucis după ce a dezvoltat o relație cu un chatbot.
Guvernatorul a cerut Pennsylvania să solicite verificarea vârstei, consimțământul părinților și interzicerea chatbot-urilor care produc conținut sexual explicit sau violent cu copii. El sprijină, de asemenea, obligarea companiilor să direcționeze utilizatorii care menționează autovătămare sau violență către autoritățile competente și să le reamintească periodic utilizatorilor că nu se interacționează cu un om real.
Dar cum ar fi aplicate aceste noi cerințe? Și ei să fie?
„Diavolul este în detalii”, a spus Hoda Heidari, profesor de etică și tehnologii computaționale la Universitatea Carnegie Mellon. „Putem fi cu toții de acord asupra obiectivelor la nivel mai larg, dar întrebarea dacă unele dintre acestea sunt de fapt realizabile… trebuie rezolvată.”
În ciuda avertismente de la experții în securitate despre ineficacitatea și riscul pentru confidențialitate, verificarea vârstei a câștigat popularitate în rândul autorităților de reglementare ca măsură de protejare a copiilor de site-urile web neadecvate. Heidari a remarcat că aceleași probleme cu verificarea vârstei ar putea apărea cu chatbot-urile.
„Aceste întrebări sunt foarte provocatoare atât din punct de vedere tehnic a modului în care verificați vârsta, cât și din perspectivă legală a ce să faceți cu datele rezultate”, a spus Heidari.
Falsificarea unei legitimații online rămâne, de asemenea, foarte ușoară. De exemplu, multe site-uri web care vând sau promovează alcool folosesc „porți de vârstă” care impun utilizatorului să introducă ziua de naștere pentru a-și verifica vârsta. Dar un utilizator ar putea pur și simplu să introducă orice dată ca naștere și să acceseze site-ul web. Același lucru este valabil și pentru site-urile cu alt conținut pentru adulți.
În ceea ce privește asigurarea faptului că un chatbot nu va produce conținut violent sau sexual explicit care implică copii: Heidari a remarcat că companiile de inteligență artificială explorează deja cum să blocheze crearea de materiale de abuz sexual asupra copiilor. Dar balustradele actuale pot fi ocolite.
„Gândiți-vă la toate modurile în care puteți solicita unui chatbot să genereze același tip de conținut pe care îl aveți în minte”, a spus Heidari. „A te asigura că nu vezi niciodată un fel de comportament este de fapt destul de dificil.”
De asemenea, Shapiro i-a provocat pe parlamentari să elaboreze o legislație pentru a proteja copiii și alți utilizatori vulnerabili de riscurile potențiale asociate cu utilizarea chatbot-ului. Un proiect de lege bipartizan în Senatul statului ar stabili „standarde adecvate vârstei” și ar impune măsuri de protecție împotriva conținutului care încurajează autovătămarea, sinuciderea sau violența. De asemenea, ar direcționa utilizatorii să-și auto-vătăm resursele de criză „ori de câte ori este detectat un limbaj cu risc ridicat”.
Rămâne însă de văzut cum ar aplica statul aceste protecții și ce sancțiuni le-ar impune parlamentarii companiilor ai căror chatbot le încalcă.
„Aceste tipuri de cerințe vor fi foarte greu de aplicat”, a spus Heidari.
Dar ea a subliniat că dificultatea nu ar trebui să descurajeze agențiile să încerce cu totul. Heidari a spus că reglementările de siguranță AI ar trebui dezvoltate ca parte a unui „model de brânză elvețiană” mai larg pentru gestionarea riscurilor – unul în care nicio protecție nu este perfectă singură.
„Orice dintre aceste straturi este falibil, dar sperăm că atunci când le stivuiți, obțineți ceva mai bun: mai multă protecție”, a spus ea.
Sistem patchwork
La fel ca goana aurului din Vestul Sălbatic, inteligența artificială și instrumentele AI generative s-au bucurat de o creștere rapidă, nereglementată, care a depășit politica și reglementările din Statele Unite. Și sub cea de-a doua administrație Trump, nu este clar dacă asta se va schimba la nivel federal. Președintele Trump a semnat un ordin executiv în decembrie, descurajând reglementările bazate pe stat și amenințănd că „luează măsuri” împotriva statelor care adoptă „legi oneroase și excesive… care amenință să împiedice inovația”.
Ordinul promitea un „cadru de politică național minim împovărător pentru AI” și a instituit un grup operativ de litigii AI însărcinat cu contestarea legilor AI la nivel de stat care nu sunt aliniate cu prioritățile guvernului federal.
Între timp, guvernele statelor continuă să ia măsuri pentru a reglementa AI și roboții însoțitori, California printre jucătorii de frunte. Începând din 2024, statul a adoptat o serie de legislații menite să îmbunătățească transparența, siguranța și responsabilitatea pentru modelele AI. New York a implementat măsuri similare. În timp ce Pennsylvania și alte state își dezvoltă propriile seturi de reguli, Heidari a spus că rezultatul este un sistem mozaic care poate fi greu de urmat pentru companiile de inteligență artificială.
„Acest lucru nu este de bun augur pentru un sistem unificat, coerent în care companiile și alte părți interesate ale inteligenței artificiale pot decide ce să facă”, a spus ea. „Sunt atât de multe direcții în care sunt atrași.”
Cu excepția politicii federale privind inteligența artificială, Heidari a spus că este probabil ca state cu populație mare, precum California și New York, să dea tonul pentru reglementarea inteligenței artificiale. Ea a spus că este puțin probabil ca companiile să lanseze diferite platforme de chatbot în diferite state și mai probabil că vor adera la reglementările adoptate de statele mai mari.
„Ei pot să dea tonul pentru întreaga țară”, a spus ea. „Nu are sens ca (companiile IA) să spună „Oh, utilizatorul este în Pennsylvania? Tocmai au trecut granița către Virginia?” Deci, practic, merg cu orice se aplică în majoritatea cazurilor.”
Heidari a spus că Pennsylvania ar putea apărea ca un alt jucător important în reglementarea inteligenței artificiale în SUA sub efortul reînnoit al lui Shapiro.
„Este bine că administrația (Shapiro) adoptă o poziție responsabilă și încearcă să facă acest lucru în conversația cu părțile interesate și experții”, a spus Heidari. „În caz contrar, există o modalitate prin care reglementarea poate doar să declare pe gura anumitor agende politice fără a avea niciun impact”.
