X implementează restricții asupra generării de imagini cu persoane reale, în contextul controversei globale asupra AI-ului
În încercarea de a limita abuzurile legate de tehnologia de inteligență artificială, platforma X, fosta Twitter, a anunțat recent introducerea unor măsuri stricte pentru controlul conținutului generat cu ajutorul AI-ului. Acest demers vine pe fondul unei discuții mondiale acutizate despre riscurile asociate creării și distribuției de imagini false, unele chiar sexualizate, fără consimțământ. Anunțul reprezintă un pas spre responsabilizarea utilizatorilor și protejarea persoanelor reale de eventuale abuzuri în mediul digital.
Noile restricții se aplică tuturor utilizatorilor, inclusiv abonaților plătitori
Potrivit unui comunicat emis de platformă, toate măsurile tehnologice implementate urmăresc blocarea posibilității ca utilizatorii să genereze imagini cu persoane reale în haine revelatoare, precum bikini, lenjerie intimă sau alte tipuri de îmbrăcăminte similare. Mai mult, măsura se aplică atât utilizatorilor obișnuiți, cât și abonaților plătitori, o decizie menită să impună un sistem de control mai strict în cadrul funcției de editare și creare a imaginilor cu ajutorul AI-ului, denumită Grok.
„Am implementat măsuri tehnologice pentru a împiedica contul Grok să permită editarea imaginilor cu persoane reale în haine revelatoare, cum ar fi bikini. Această restricție se aplică tuturor utilizatorilor, inclusiv abonaților plătitori”, se arată în comunicatul postat pe X. Astfel, platforma încearcă să reducă riscul de distribuție a imaginilor false sau exploatative, în linie cu preocupările tot mai crescute la nivel internațional despre utilizarea AI pentru crearea de conținut periculos sau ilegal.
Contextul legislativ și scandalurile recente
Anunțul vine pe fondul unui val de controverse și investigații, în special în Statele Unite, unde autoritățile americane au început să examineze pericolele expuse de deepfake-urile cu conținut sexual, inclusiv cele cu minori. Recent, procurorii din California au confirmat că încep investigații pentru identificarea și sancționarea celor care folosesc modele de AI pentru a produce astfel de materiale, adesea fără acordul persoanelor vizate.
O chestiune sensibilă este și modul în care aceste tehnologii pot fi utilizate pentru manipularea imaginii în scopuri malefice, fiind criticate de multe voci internaționale. În ultimele zile, lideri politici și reprezentanți ai societății civile au tras semnale de alarmă, semnalând riscurile majore ale unor astfel de aplicații care pot compromite siguranța și intimitatea oamenilor.
Plata pentru funcție de editare, limitată pentru utilizatori
X a decis, de asemenea, că doar utilizatorii plătitori vor putea accesa funcția de editare a imaginilor, o măsură specificată pentru a asigura un nivel suplimentar de verificare și responsabilitate. În comunicat, compania afirmă că această restricție este menită să prevină abuzurile și să facă pe cei care încearcă să folosească platforma pentru încălcări legale sau etice să fie trași la răspundere.
„Acest lucru va adăuga un nivel suplimentar de protecție, ajutând la asigurarea faptului că cei care încearcă să abuzeze de Grok pentru a încălca legea sau politicile X sunt trași la răspundere”, se precizează în mesajul oficial.
Critici și reacții internaționale
Deși inițiativa pare, în teorie, o măsură de responsabilizare, ea nu a fost lipsită de critici din partea societății civile și a unor experți în domeniul tehnologiei. Funcția de editare a generat deja controverse la nivel global, mulți specialiști avertizând asupra posibilității ca astfel de instrumente să fie folosite pentru producerea și răspândirea de conținut explicit sau înșelător, fără acordul persoanelor vizate.
În weekend, Malaezia și Indonezia au fost primele state care au interzis folosirea platformei Grok, după ce utilizatorii au încălcat normele legale și morale, creând imagini explicite fără consimțământul celor filmați sau imaginați.
Perspectivele viitoare ale tehnologiei AI și responsabilitatea platformelor
În ciuda măsurilor adoptate, controversele legate de AI și de potențialul său de a declanșa fenomene negative continuă să fie în centrul atenției. Autorii și companiile din domeniu sunt, acum mai mult ca niciodată, chemați să reglementeze, să controleze și să asigure că tehnologia dezvoltate servește interesul public și nu devine un instrument al abuzurilor. Răspândirea de deepfake-uri și alte forme periculoase de manipulare digitală rămâne o problemă esențială pe agenda actorilor globali.
Pe măsură ce discuțiile și reglementările evoluează, probabilitatea ca astfel de platforme să implementeze măsuri și mai stricte va fi în continuare iminentă, în încercarea de a păstra un echilibru între inovație și responsabilitate socială.
