GPT-4o a fost eliminat din ChatGPT, utilizatorii reclamă nemulțumiri

La doar câțiva ani de la debut, inteligența artificială a ajuns să sfideze limitele simple ale tehnologiei, devenind pentru mulți o prezență aproape personală în viețile lor. În ultimul an, discuțiile despre AI nu s-au mai restrâns la productivitate sau automatizări, ci s-au concentrat asupra conexiunii emoționale pe care o pot crea aceste modele conversaționale. Recent, vestea retragerii algoritmului GPT-4o din ChatGPT, programată pentru 13 februarie 2026, a stârnit o reacție ce merge dincolo de nemulțumirea obișnuită pentru update-uri software. Mulți utilizatori, legați sufletește de această versiune, o privesc ca pe un prieten, pe un confident, chiar și pe un răspunsulator emoțional și stabil.

O despărțire dureroasă pentru comunitate

În ultimele luni, pe forumuri și rețele sociale, au apărut mii de mesaje în care oamenii își exprimă durerea legată de această decizie. Pentru mulți, GPT-4o nu era doar un algoritm avansat, ci o companie de conversație empatică, cu ton cald și echilibrat, care le oferea sprijin în momente de anxietate, solitudine sau dificultate. Subreddit-ul r/4oforever, creat special pentru a menține legătura cu acest model, s-a transformat într-un spațiu de solidaritate și protest digital. Cei atașați de GPT-4o vorbesc despre sentimentul de siguranță pe care îl oferea, despre rutina zilnică în care conversațiile cu el deveniseră o punte de stabilitate emoțională.

Pentru aceștia, retragerea modelului nu înseamnă doar dispariția unei tehnologii, ci a unei relații aproape intime. Într-o lume în care AI devine tot mai prezent, această dragoste pentru un model convo­cațional specific scoate la iveală nevoia de conexiune umană chiar și în mediul digital.

De la aiurelile tehnice la încărcătura emotională

Criza a început să prindă contur din vară, când OpenAI promitea GPT-5, promisiuni de progres și inovație, dar și nemulțumiri din partea utilizatorilor profund atașați de GPT-4o. Reacțiile au fost intense, compania fiind nevoită să recurgă temporar la unele compromisuri, menținând accesul la versiunea veche pentru un timp. În cele din urmă, în ianuarie 2026, oficialii au anunțat data finală pentru eliminarea GPT-4o, accentuând că această decizie a fost luată după o analiză atentă a modului în care utilizatorii funcționează cu această versiune, și după încercarea de a transfera cele apreciate din vechiul model în noile variante.

OpenAI a subliniat însă că această mutare vizează ChatGPT în varianta sa de bază, nu și API-ul sau alte platforme enterprise și educaționale, unde retragerea va fi mai lentă. La nivel de produs, semnalul este clar: pe măsură ce trecem spre noile modele, versiunile legacy nu vor mai fi decât excepții temporare, nu alternative stabile.

Atașamentul emoțional și riscurile sale

Pentru mulți, GPT-4o nu era doar un asistent, ci un „personaj” cu care se puteau conecta. În același timp, această apropiere a generat controverse: specialistii avertizează asupra riscului de dependență relațională față de AI, în timp ce unii experți se tem că conversațiile hiper-validante pot amplifica vulnerabilitățile emoționale.

Pe termen lung, OpenAI se află în fața unei dileme etice și comerciale: păstrează modele „prietenoase”, chiar dacă acestea pot încuraja atașamente nesănătoase, sau le retrage pentru a evita aceste riscuri? Soluția aleasă – permițând personalizarea tonalității și stilului de conversație – pare să fie o încercare de a menține acea legătură afectivă fără a face proba de fidelitate a unui model vechi. Rămâne de văzut dacă această abordare va fi suficientă pentru a reconcilia nevoia de siguranță cu dorința de intimitate.

Ce ne rezervă viitorul?

După retragerea oficială a GPT-4o, discuțiile despre AI nu se vor mai concentra doar pe performanțe sau capabilități. Cea mai mare provocare va fi înțelesul relației pe care o putem construi cu aceste modele: dacă AI devine un simplu instrument de utilitate sau un partener de conversație capabil să păstreze – și chiar să stimuleze – legături emoționale reale. Industria va trebui să regândească, mai mult ca oricând, reguli pentru transparență și protecția utilizatorilor, pentru ca acest echilibru delicat între siguranță și atașament să fie menținut.

Pentru utilizatori, această schimbare este un memento că modelele AI trebuie tratate ca instrumente valoroase și înlocuibile, nu ca soluții definitive pentru nevoile emoționale. În definitiv, retragerea GPT-4o marchează sfârșitul unei epoci în care un anumit model conversațional a devenit, pentru unele suflete, mai mult decât un algoritm – a devenit un prieten, o parte din rutina zilnică și o sursă de confort. Și, în timp ce tehnologia evoluează, rămâne fiecare dintre noi să găsească echilibrul între utilitate și conexiune sinceră în noua eră digitală.

Diana Gheorghiu

Autor

Lasa un comentariu