Break the fake > Halucinațiile AI: cum obținem rezultate corecte?
Articol de Vicentiu Andrei, 18 septembrie 2025, 08:56
Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații!
Bine te-am regăsit la „Break the fake”!
Săptămâna trecută am vorbim despre halucinațiile inteligenței artificiale. Spuneam atunci că acestea sunt răspunsuri greșite generate de instrumente de inteligență artificială generativă, cum este Chat GPT, care par plauzibile, dar conțin informații inventate sau inexacte. Sunt erori care apar fără intenție.
Halucinațiile apar din mai multe motive:
• datele pe care este antrenat sistemul conțin adesea prejudecăți, omisiuni sau inconsecvențe, care pot duce la erori sistemice în rezultate
• procesul de antrenare este netransparent și este greu să evaluezi motivul pentru care un model produce anumite rezultate
• instrucțiuni neclare
• procesarea unui volum prea mare de date.
Până când dezvoltatorii acestor aplicații vor reuși să minimizeze aceste riscuri, sunt câteva lucruri pe care le putem face noi, utilizatorii, pentru a ne asigura că obținem rezultate cât mai credibile din partea AI-ului.
Partea cea mai delicată este să recunoaștem halucinațiile. Prin definiție, acestea par plauzibile, dar sunt de fapt greșite. Spre deosebire de erorile evidente, aceste răspunsuri sunt structurate, formulate pe un ton convingător și pot indica uneori chiar și surse fabricate. De aceea, cu cât miza este mai mare, cu atât este mai important să verifici din alte surse rezultatele generate de AI. Deci, dacă îl folosești să îți planifici călătoriile sau să rezolvi sarcini de serviciu, altele decât cele care presupun creativitate 100%, este bine să cunoști domeniul și să verifici cu atenție informațiile. De exemplu, dacă ChatGPT îți spune că o anumită ciupercă este comestibilă, întreabă și un botanist înainte să te otrăvești.
De asemenea, este important să știi ce să întrebi, și cum să întrebi. Instrucțiunile vagi lasă loc halucinațiilor, în timp ce indicațiile precise mențin AI-ul concentrat pe sarcina dată. Trebuie să formulezi instrucțiuni specifice, clar definite, care să ghideze AI-ul către răspunsuri factuale. Furnizează-i informații, referințe, date și orice alte elemente relevante. Este recomandat să îi ceri surse (și să le și verifici) și să îi ceri, în cazul sarcinilor logice, să explice fiecare pas pe care l-a făcut. Este mai bine să împarți sarcina mare în instrucțiuni pas cu pas.
De asemenea, ține cont că modelele AI trebuie folosite în scopurile pentru care au fost proiectate. ChatGPT este un model de uz general; cu cât îi ceri lucruri mai specializate, cu atât riscul de eroare crește. În general, modelele mari de limbaj – acei roboți pe care îi întrebăm și ne răspund, excelează la următoarele utilizări:
• Lucrul cu un text dat
• Scriere creativă care nu necesită acuratețe factuală, inclusiv texte pentru postări pe rețelele sociale, comunicare de marketing (dar neapărat cu îmbunătățiri ulterioare aduse de un specialist)
• Brainstorming și generare de idei
• Propunerea unor formulări alternative pentru stil sau claritate
• Mici căutări punctuale, cum ar fi numele unei cărți pe care nu ți-l mai amintești.
Pentru toate celelalte utilizări, trebuie supervizat cu multă atenție. Cu cât este mai avansat modelul, cu atât ai mai multe șanse să dea rezultate bune.
Rămâi cu BucureștiFM, sursa sigură de informații!
Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.
Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.