Platforma X, cunoscută anterior sub denumirea de Twitter, se află din nou sub lumina reflectoarelor din cauza reacțiilor negative generate de reacția sa oficială legată de controversele privind chatbotul Grok, un asistent bazat pe inteligență artificială. Deși inițial compania a promis dezvoltarea unor măsuri pentru prevenirea generării de conținut inadecvat, ultimele declarații sugerează altceva: responsabilitatea pentru utilizarea conținutului ilegal este transferată exclusiv utilizatorilor.
Mai mult decât atât, poziția exprimată de echipa de securitate a platformei a fost percepută ca o evitare a responsabilităților tehnice, concentrându-se în schimb pe sancționarea utilizatorilor care solicită sau distribuie material difuzat ilegal. În același timp, Elon Musk, care a preluat controlul platformei în ultimii ani, a manifestat o opinie controversată: Grok nu ar trebui considerat responsabil pentru imaginile create de AI, argumentând că sistemul acționează ca un instrument pasiv. Această abordare a suscitat critici dure din partea experților în domeniu, care atrag atenția că, fiind un sistem generativ, AI-ul nu produce rezultate complet controlabile sau predictibile, mai ales în cazul unor cereri ambigue sau negative.
Lipsa de control și riscurile generate de AI
Sistemele generative de imagini, precum Grok, funcționează diferit față de instrumentele tradiționale de editare. Același prompt poate duce la rezultate foarte diferite, iar utilizatorii nu au control total asupra produselor finale. În plus, aceste rezultate sunt dificile de monitorizat, iar, uneori, AI-ul poate genera imagini neintenționate sau chiar problematice, fără ca utilizatorul să poată interveni pentru a le elimina. În astfel de situații, există riscul ca acești utilizatori să fie sancționați sau chiar anchetați, chiar dacă actul nu a fost intenționat, în timp ce compania nu își asumă responsabilitatea pentru modul în care AI-ul își produce rezultatele.
Se intensifică astfel presiunile din partea comunității de experți și a opiniei publice pentru o reglementare mai strictă, dar și pentru potențiala interzicere a aplicației X în magazinul digital Apple. Impulsul pentru această măsură vine din faptul că regulile Apple interzic explicit aplicațiile care permit distribuirea de conținut sexual explicit cu minori sau persoane reale fără consimțământ, iar lipsa unor filtre eficiente în cazul Grok ar putea constitui o încălcare a acestor reguli. Ulterior, această situație ar putea avea un efect de domino, afectând strategia globală a lui Musk de a competitiviza ChatGPT, în contextul eforturilor de a dezvolta un rival cu adevărat serios.
Provocări legale și dileme tehnologice în reglementarea AI-ului
Un alt aspect care amplifică criza de încredere în platforma X îl reprezintă lacunele în modul de detectare a conținutului ilegal generat de colaborarea AI-ului. În trecut, compania a anunțat că folosește tehnologii de tip hash și colaborări cu autorități, precum Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC), pentru combaterea materialelor de abuz sexual și a altor forme de exploatare. Însă aceste sisteme sunt eficiente doar pentru conținut cunoscut, nu și pentru imagini artificiale sau generate de AI, ceea ce înseamnă că riscul ca asemenea materiale să fie produse și distribuite în mod noxious devine tot mai real.
Lipsa unor cadre precise privind ce reprezintă conținut ilegal sau ofensator, precum și caracterul imprevizibil al rezultatelor generate de AI, sporesc ambiguitatea și incertitudinea legală. Navigatorul între aceste provocări rămâne dificil, mai ales pentru platforma X, care pare mai preocupată să arate că sancționează și combate aceste probleme după apariție, decât să prevadă și să blocheze dinainte eventuale abuzuri.
Pericolul cel mai mare este ca AI-ul Grok să creeze în mod involuntar imagini extrem de problematice, fiind dificil de identificat și de eliminat automat. În cele din urmă, lipsa unui cadru clar asupra tipurilor de conținut interzise și dificultățile în controlul generării de materiale neautorizate pot duce la scandaluri și sancțiuni externe din partea autorităților sau a partenerilor de distribuție, dacă nu se vor lua măsuri concrete și transparente în viitorul apropiat.
În această situație complicată, cu riscuri atât tehnice, cât și legale, platforma X trebuie să redefină rapid modul în care gestionează conținutul generat de propriul AI, dacă nu vrea să își piardă credibilitatea și să rămână captivă într-un val de controverse și amenințări legale.
