Limitele informării cu ajutorul inteligenței artificiale | VIDEO

Articol de Vicentiu Andrei, 12 martie 2025, 08:52
Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații!
Bine te-am regăsit!
Aplicațiile de intelegență artificială generatoare de text, cum este ChatGPT, au devenit rapid foarte populare în întreaga lume. Cu toate acestea, utilizarea lor ca sursă de informare presupune un număr de riscuri de care este bine să fim conștienți.
În primul rând, trebuie să ținem cont că aceste aplicații pot să halucineze. Halucinațiile sunt rezultate incorecte sau înșelătoare generate de modelele bazate pe inteligență artificială. Acestea apar din cauze legate de calitatea datelor folosite pentru a antrena modelul respectiv.
Mai exact, modelele bazate pe inteligență artificială sunt antrenate pe serii mari de date, extrase inclusiv de pe internet, și învață să facă predicții prin identificarea de tipare în datele respective. Din această cauză, acuratețea predicțiilor depinde adesea de cât de corecte, complete și obiective sunt datele în cauză. Când datele conțin erori sau alte deficiențe, modelul poate învăța tipare incorecte, care duc la halucinații (predicții incorecte privind succesiunea de cuvinte care formează textul livrat utilizatorului).
Specialiștii Google dau un exemplu simplu: un model de inteligență artificială antrenat pe un set imagini medicale poate învăța să identifice celulele canceroase.
Cu toate acestea, dacă setul de date nu include și imagini cu țesuturi sănătoase pentru comparație, modelul poate prezice incorect că țesutul sănătos este cel canceros.
Nu în ultimul rând, faptul că aceste modele extrag informații de pe internet poate fi exploatat de actori malițioși pentru a induce perspective părtinitoare în răspunsurile la întrebările utiulizatorilor. Această vulnerabilitate a fost deja identificată în practică, de către un raport de audit realizat de către Newsguard și confirmat și de alte cercetări întreprinse de organizații internaționale. Studiul Newsguard, organizație dedicată evaluării integrității informațiilor digitale, a identificat o rețea de dezinformare pro-Kremlin dedicată manipulării aplicațiilor de inteligență artificială generatoare de limbaj.
Newsguard a studiat 10 chatboți importanți, printer care cei dezvoltați de către Microsoft, Google, OpenAI, și a descoperit că, într-o treime din cazuri, chatboții au reciclat argumente cu care rețeaua de dezinformare a inundat în mod strategic mediul online.
Operațiuni de acest tip demonstrează apariția unei noi amenințări pentru integritatea informației: manipularea deliberată a modelelor de limbaj mari (LLM) de către rețele de influență străine pentru a distorsiona rezultatele chatboților.
De aceea, aplicațiile de tipul Chat GPT nu trebuie utilizate ca sursă de știri și, în general, informațiile furnizate de acestea trebuie comparate cu datele obținute din alte surse, pentru a putea avea o imagine cât mai apropiată de realitate asupra unui subiect.
Atât pentru azi, rămâi cu BucureștiFM, sursa sigură de informații!
Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.
Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.