Cum să recunoști un site care dezinformează, generat de inteligența artificială

Foto: Pixabay.com

Noi site-uri cu conexiuni în Rusia, create între lunile martie și mai, au folosit inteligența artificială (AI) pentru a genera conținut care dezinformează, atenționa France 24 la începutul lunii iunie. Cu articole plagiate de la pretinși jurnaliști sau imagini manipulate, aceste site-uri reușesc, cu ajutorul AI, să imite instituții media autentice. Cu toate acestea, la o analiză mai atentă, putem să încercăm să determinăm dacă un site este nesigur și generat artificial.

În materialul său, France 24 oferă câteva sfaturi ce ne-ar putea ajuta să ne dăm seama dacă un site a fost generat cu ajutorul inteligenței artificiale. Iată la ce ar fi indicat să atragem atenția:  

  1. Verificarea logo-ului site-ului. Logourile create de AI, cum ar fi cele generate de DALL-E 3, pot avea texte incoerente sau greșeli evidente. 
  2. Identificarea urmelor de prompt în articole. Căutați „scurgeri” sau erori specifice AI-urilor în text. De exemplu, titlurile care includ mențiuni precum „Acest titlu este scurt și precis” indică faptul că textul a fost generat artificial, conform instrucțiunilor utilizatorului​​.
  3. Verificarea fiabilității surselor. Multe articole pot cita surse inexistente sau nefiabile. 
  4. Identificarea „halucinațiilor” AI. Inteligența artificială poate face greșeli factologice.
  5. Consultarea infrastructurii tehnice și a codului sursă al site-ului. Analiza codului sursă poate dezvălui legături tehnice între site-uri implicate în operațiuni de dezinformare. 
  6. Verificarea biografiilor jurnaliștilor. Jurnaliștii falși pot avea profiluri inexistente.

Totuși, unii experți atenționează că identificarea unui portal creat artificial nu este o misiune simplă. Solicitat de Mediacritica, trainerul cursului Inteligență Artificială în Jurnalism al Școlii de Jurnalism de la Chișinău, Paul McNally, susține că în prezent „există multe instrumente care pretind că pot detecta AI, dar în mare parte nu funcționează”. „Niciuna dintre metode nu este infailibilă și nu sunt sigur dacă putem face recomandări generale. Există multe instrumente care pretind că pot detecta AI, dar în mare parte nu funcționează. De asemenea, când ai site-uri mari precum Associated Press, spunând că 80% din fluxul lor de lucru va fi generat de AI (iar ultimele 20% de oameni), cred că ideea de «ce înseamnă prea mult AI?» este crucială”, a precizat trainerul.

Iar în opinia antreprenorului Vitalie Eșanu, „portalurile fake pot fi detectate pentru că folosesc cuvinte ciudate. Asta deoarece AI gândește în general în limba engleză și apoi face traducerea. De asemenea, stilul, cuvintele sofisticate pot da de gol un site generat de AI. Dar asta nu înseamna că mâine proprietarii nu vor folosi alte tehnici pentru a elimina aceste lacune”.

Totodată, Vitalie Eșanu consideră că „teoretic nu e posibil să determini dacă un text este scris de AI, cu atât mai mult că în fiecare lună apar texte tot mai bune și mai bune. În privința sunetului, imaginilor și video, marile companii care le produc pot injecta pe ascuns unele markere invizibile pentru ochiul uman sau ureche. Acestea pot fi depistate algoritmic. Însă cei care vor dori să manipuleze nu vor folosi aceste AI-uri, ci altele, care nu fac asta. Se începe o nouă etapă în fake-news și true news, care nu știu până unde va merge”.

„Filosofia este ca, cu ajutorul AI, jurnaliștii bine intenționați să accelereze crearea și distribuția de informație, pentru că crearea de fake-news-uri nu va putea fi oprită. Acum este destul de scump să prelucrezi manual informația, iar în acest sens AI poate prelua o parte din muncă. Astfel, fluxul bine intenționat de știri poate concura cu cel rău intenționat. O altă cale nu văd”, prognozează Eșanu. 

Anterior, Mediacritica a scris despre „pink slime journalism”, o noțiune care descrie site-urile ce iau locul presei locale, dar oferă puțină informație reală. Acestea sunt produse frecvent prin automatizare și tot frecvent prezintă informația în mod partizan.