Chatboturile cu inteligență artificială (AI) sunt tot mai populare, dar sunt, de asemenea, o problemă majoră de securitate sau de stocare a datelor, arată unele studii. Mai mult, cazuri recente arată bunăoară cum ChatGPT, dezvoltat de compania OpenAI, ar fi scris falsuri despre un primar din Australia, iar The Daily Beast citează cercetători care au observat că Bard, chatbotul Google, produce informații greșite și care incită la ură.
Potrivit unui raport publicat pe site-ul Technologyreview.com, modelele de limbaj AI sunt „cea mai strălucitoare și cea mai interesantă inovație în tehnologie” în prezent. Dar acestea sunt pregătite să creeze o problemă majoră: sunt extrem de ușor de folosit în mod abuziv și de implementat ca instrumente puternice de phishing sau scamming. Nu sunt necesare abilități de programare. „Ce este și mai rău este că nu există o soluție cunoscută”, este precizat în raport.
Companiile de tehnologie se grăbesc să încorporeze aceste modele într-o mulțime de produse pentru a ajuta oamenii să facă totul, de la rezervarea călătoriilor până la organizarea calendarului sau notarea informațiilor despre întâlniri. Dar modul în care funcționează aceste produse – primind instrucțiuni de la utilizatori și apoi căutând răspunsuri pe Internet – creează o mulțime de riscuri noi. Cu ajutorul AI, acestea ar putea fi folosite pentru tot felul de activități malițioase, inclusiv pentru dezvăluirea informațiilor private ale oamenilor și pentru a ajuta infractorii să facă phishing, spam și scam. Experții avertizează că ne îndreptăm spre o „catastrofă” în ceea ce privește securitatea și intimitatea, transmite site-ul Technologyreview.com.
Raportul evidențiază trei dintre cele mai mari probleme și ce se poate face pentru a le remedia.
Vulnerabilități de securitate: În timp ce chatboturile cu AI sunt proiectate pentru a fi cât mai precise posibil în furnizarea de răspunsuri, ele pot fi, de asemenea, vulnerabile la atacuri cibernetice. Unii atacatori pot utiliza vulnerabilitățile de securitate ale chatboturilor pentru a prelua controlul asupra lor și a începe să distribuie mesaje malițioase sau să colecteze informații confidențiale de la utilizatori.
Pentru a preveni acest lucru, companiile care dezvoltă chatboturi cu AI trebuie să ia în considerare securitatea încă din faza de proiectare și să implementeze măsuri de protecție adecvate.
Informații incorecte sau confidențiale: O altă problemă este că chatboturile pot furniza utilizatorilor informații incorecte sau chiar confidențiale, din cauza faptului că nu sunt programate corespunzător sau că algoritmii lor de învățare automată nu au avut suficiente date pentru a înțelege complet subiectul discuției.
Pentru a remedia această problemă, companiile ar trebui să îmbunătățească precizia și calitatea datelor pe care se bazează chatboturile lor. De asemenea, este important ca utilizatorii să fie informați despre limitările chatboturilor și să fie încurajați să ia decizii importante în urma consultării și verificării cu alte surse.
Încălcarea intimității și a confidențialității: În cele din urmă, chatboturile cu AI pot reprezenta o amenințare serioasă la adresa intimității și confidențialității utilizatorilor. Acest lucru poate fi din cauza colectării și stocării necorespunzătoare a datelor utilizatorilor, precum și din cauza posibilității ca chatboturile să fie accesate de persoane neautorizate.
Pentru a remedia această problemă, companiile ar trebui să ia măsuri pentru a proteja datele utilizatorilor și pentru a implementa politici clare și transparente privind colectarea și stocarea datelor. De asemenea, este important ca utilizatorii să fie educați în privința riscurilor la care se expun.
INFORMAȚII FALSE, GENERATE DE CHATBOTURI
În context, amintim cazul unui primar din Australia care declara la începutul acestei luni că intenționează să dea în judecată compania OpenAI, care a creat ChatGPT, dacă chatbotul nu corectează informațiile false generate despre acesta, care susțin că edilul ar fi implicat într-un scandal de luare de mită. Cazul a fost relatat de Reuters.
Brian Hood, primar al orașului Hepburn Shire, s-a arătat îngrijorat de reputația sa atunci când oamenii i-au spus că ChatGPT l-a numit în mod fals vinovat într-un scandal de luare de mită. Avocații au spus că au trimis o scrisoare de înștiințare proprietarului ChatGPT, OpenAI, pe 21 martie, acordând companiei americane 28 de zile pentru a remedia erorile despre clientul lor. În caz contrar, OpenAI riscă să se confrunte cu un posibil proces pentru defăimare.
OpenAI nu a răspuns la un e-mail Reuters la subiect, expediat în afara programului de lucru.
INFORMAȚII GREȘITE ȘI CARE INCITĂ LA URĂ
În același timp, publicația The Daily Beast citează cercetători care au observat că Bard, chatbotul Google, produce informații greșite și care incită la ură.
Într-un studiu recent realizat de cercetători de la Universitatea Berkeley, Bard a fost testat pe câteva mii de afirmații despre diverse subiecte, de la politici și economie, până la cultură și știință. Într-o proporție semnificativă, chatbotul a furnizat informații inexacte sau dezinformare, iar în unele cazuri a promovat ura și prejudecățile. Cercetătorii au descoperit, de exemplu, că atunci când Bard a fost întrebat despre Holocaust, datele furnizate negau existența acestuia sau diminuau semnificația și importanța sa istorică.
În ceea ce privește subiectul schimbărilor climatice, Bard a oferit informații inexacte și incoerente, întărind scepticismul față de acestea. În plus, chatbotul a lansat afirmații ce promovau prejudecățile, precum că femeile sunt mai puțin capabile decât bărbații sau că anumite grupuri etnice sunt mai predispuse la infracțiuni.
În timp ce Bard se află într-un stadiu incipient de dezvoltare și nu este încă disponibil pentru utilizatori, cercetătorii atrag atenția asupra riscurilor pe care inteligența artificială le poate aduce, în special în ceea ce privește răspândirea dezinformării și a prejudecăților.
Google nu a comentat în mod direct concluziile studiului, dar a declarat că lucrează la îmbunătățirea chatbotului și a altor tehnologii AI pe care le dezvoltă, transmite The Daily Beast.