Break the fake: Cum evităm halucinațiile AI?
Articol de Vicentiu Andrei, 8 aprilie 2026, 09:29
Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații!
Bine te-am regăsit!
Utilizarea AI fără atenție sporită și responsabilitate poate să ducă la distrugerea reputației profesionale. Este ceea ce a pățit Peter Vandermeersch, un jurnalist european cu o carieră foarte solidă în spate. Grupul multimedia european Mediahuis l-a suspendat pe Peter Vandermeersch, din cauza unor citate halucinate, generate de AI.
Jurnalistul experimentat a declarat că a sintetizat rapoarte folosind instrumente AI precum ChatGPT, Perplexity și NotebookLM de la Google, fără a verifica dacă citatele din aceste sinteze erau corecte. Ulterior, le-a publicat în newsletterul său de pe Substack. Erorile au fost evidențiate de o investigație jurnalistică, indicând că șapte persoane citate în articolele lui Peter au declarat că nu au făcut afirmațiile care le erau atribuite. Peter și-a recunoscut greșeala, admițând că ar fi trebuit să verifice acuratețea citatelor în cauză, înainte de a le publica.
Acest caz, și altele asemănătoare, ridică problema halucinațiilor AI. Halucinația AI este un fenomen în care, în cadrul unei aplicații de inteligență artificială generativă sunt percepute tipare sau obiecte care nu există sau care sunt imperceptibile pentru observatorii umani, generând rezultate lipsite de sens sau complet inexacte.
În general, atunci când un utilizator formulează o cerere către un instrument de AI generativă, acesta își dorește un răspuns care să răspundă adecvat solicitării, de exemplu, un răspuns corect la o întrebare sau generarea unei imagini plauzibile. Totuși, uneori, algoritmii AI produc rezultate aberante, dar care par plauzibile.
Sistemele de inteligență artificială generativă pot produce conținut inexact și părtinitor din mai multe motive.
Un motiv este legat de sursele datelor de antrenament. Modelele de AI sunt antrenate pe cantități vaste de date de pe internet. Aceste date, conțin atât conținut corect, cât și incorect, precum și biasuri sociale și culturale. Deoarece aceste modele imită tiparele din datele de antrenament fără a distinge între adevăr și fals, ele pot reproduce orice erori sau prejudecăți prezente în acele date.
Un al doilea motiv este legat de limitările implicite ale tehnologiei. Modelele AI sunt concepute pentru a prezice următorul cuvânt sau secvență pe baza tiparelor observate în date. Scopul lor este de a genera conținut plauzibil, nu de a-i verifica veridicitatea. Prin urmare, pot produce conținut care pare rezonabil, dar este inexact.
Chiar dacă aceste modele ar fi antrenate exclusiv pe date corecte, modul în care sunt proiectate, însăși natura lor generativă ar face ca ele să poată produce în continuare conținut nou, potențial inexact, prin combinarea tiparelor în moduri neașteptate.
Pentru a reduce riscul de halucinații AI în context profesional, se recomandă:
-
verificarea de către rezultatelor de către un profesionist în domeniul respectiv
-
rafinarea instrucțiunilor pe care le dai aplicațiilor AI, de exemplu: „Dacă informația nu se află în textul furnizat, spune că nu știi.”
-
Verificarea procesului de gândire a AI: cere AI-ului să își explice raționamentul pas cu pas înainte de a oferi răspunsul final.
-
Rularea aceleiași sarcini de mai multe ori, pentru a depista eventuale inconsecvențe
-
Restricționarea accesului la cunoștințe externe: cere AI-ului să folosească doar informațiile din documentele furnizate de tine și nu cunoștințele sale generale.
Atât pentru azi, rămâi cu București FM, sursa sigură de informații!
Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.