Sam Altman avertizează: „Legături autodistructive” între oameni și AI după lansarea GPT-5
Lansarea GPT-5 de către OpenAI nu a adus doar noi funcții și performanțe mai bune, ci și o furtună de reacții emoționale din partea utilizatorilor. Sam Altman, CEO-ul companiei, a tras un semnal de alarmă rar întâlnit în industria tech: unii oameni dezvoltă atașamente atât de puternice față de inteligența artificială, încât acestea pot deveni… autodistructive.
Revolta pentru GPT-4o, „modelul cu suflet”
Totul a pornit de la faptul că odată cu lansarea GPT-5, modelul GPT-4o – apreciat pentru interacțiunile sale mai „calde” și mai „umane” – a fost retras pentru majoritatea utilizatorilor. Reacția? Mii de mesaje furioase pe Reddit și rețele sociale.
Unii l-au descris pe GPT-4o ca pe „prietenul lor apropiat” sau chiar „soția digitală”, iar trecerea la GPT-5 a fost comparată cu pierderea unei persoane dragi. Presiunea comunității a determinat OpenAI să readucă GPT-4o, dar acum accesul este blocat în spatele unui abonament lunar de 20 de dolari.
Când AI devine substitut emoțional
Altman spune că acest val de reacții a arătat cât de profund pot fi atașați oamenii de un model AI. Iar datele confirmă fenomenul: un studiu realizat de OpenAI împreună cu MIT Media Lab, pe aproape 40 de milioane de interacțiuni, a arătat că utilizatorii intensivi prezintă mai multe semne de singurătate și dependență emoțională.
Cei care vedeau ChatGPT ca pe un „prieten” raportau mai puține interacțiuni sociale cu oameni reali și o implicare emoțională sporită în conversațiile cu AI.
Riscul invizibil
Deși mulți folosesc ChatGPT ca pe un coach sau mentor cu efecte pozitive, Altman atrage atenția asupra cazurilor în care AI-ul oferă o senzație temporară de confort, dar îndepărtează utilizatorii de bunăstarea lor pe termen lung.
„Dacă miliarde de oameni ar începe să vorbească cu o AI pentru cele mai importante decizii din viața lor, ar putea fi atât benefic, cât și profund tulburător”, avertizează Altman.