Break the fake: Halucinațiile AI – de ce apar, ce facem cu ele?
Articol de Vicentiu Andrei, 10 septembrie 2025, 13:29
Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații!
Bine te-am regăsit la un nou sezon din „Break the fake”!
În fiecare an, jurnalistul Ben Black publică pe site-ul său de știri o păcăleală de 1 aprilie. În 2020, păcăleala a fost că o mică localitate din Wales a fost recunoscută de Guinness World Records pentru că are cel mai mare număr de sensuri giratorii pe kilometru pătrat. Cinci ani mai târziu, a descoperit cu stupoare că instrumentul AI de la Google folosește acest articol (marcat ca farsă) ca o sursă legitimă de informare privind drumurile din Wales.
Aceasta este o formă aparte de fake – una despre care suntem în permanență avertizați, dar pe care e mai greu să o depistăm – halucinațiile inteligenței artificiale, uneori cu consecințe serioase.
Conform specialiștilor, halucinațiile sunt răspunsuri greșite generate de instrumente de inteligență artificială generativă, cum este Chat GPT, care par plauzibile, dar conțin informații inventate sau inexacte. Sunt erori care apar fără intenție. Spre deosebire de oameni, AI-ul nu are intenție sau conștiință care să îl ajute să recunoască sau să evite aceste greșeli.
Dezvoltatorii aplicațiilor încearcă să limiteze acest risc. De exemplu, OpenAI afirmă despre cea mai recentă versiune, ChatGPT5 că „Am realizat progrese semnificative în reducerea halucinațiilor, îmbunătățirea respectării instrucțiunilor și diminuarea atitudinii de flatare a utilizatorului.”
În general, filtrele interne ale platformelor sau sistemele de tip RAG (care caută informații pe web) pot reduce erorile, dar halucinațiile pot persista, deoarece modelele AI produc text prezicând următorul cuvânt cel mai probabil pe baza datelor pe care au fost antrenate. Din acest motiv, halucinațiile AI sunt diferite de dezinformarea răspândită de oameni, care apare de obicei din prejudecăți, raționamente marcate de subiectivism sau încercări deliberate de a înșela.
Conform unei cercetări recente din Harvard Misinformation Review, pot fi identificate trei zone de vulnerabilitate care fac prezența halucinațiilor aproape inevitabilă:
-
În primul rând, datele pe care este antrenat conțin adesea prejudecăți, omisiuni sau inconsecvențe, care pot duce la erori sistemice în rezultate. Nici sistemul de căutare pe internet, pe care l-am menționat deja, nu este infailibil. Există, de asemenea, un posibil cerc vicios „AI-cu-AI”, în care inexactitățile generate de AI vor polua viitoarele seturi de date de antrenament, ducând la un fenomen cunoscut drept „prăbușirea modelului” din cauza lipsei de conținut proaspăt, generat de oameni
-
În al doilea rând, procesul de antrenare este netransparent; din această cauză, este dificil să înțelegi, să explici sau să evaluezi motivul pentru care un model produce anumite rezultate
-
În al treilea rând, mecanismele de filtrare ulterioare întâmpină dificultăți în a bloca halucinațiile subtile din cauza constrângerilor legate de buget, volum, ambiguitate și sensibilitate la context.
De aceea, rezolvarea problemei halucinațiilor trebuie să adreseze, în mod sistematic, aceste surse de vulnerabilitate. Data viitoare, vom discuta și despre modul în care ne putem proteja, ca utilizatori.
Rămâi cu BucureștiFM, sursa sigură de informații!
Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.
Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.