Inteligența artificială și etica presei: avantaje, riscuri privind dezinformarea și cum găsim mijlocul de aur

ChatGPT, Jasper Chat, Lensa, ChatSonic, Remini, YouChat – sunt doar câteva platforme de inteligență artificială lansate în ultimul an. Potrivit datelor oficiale, doar ChatGPT are peste 100 de milioane de utilizatori, iar în luna iunie 2023, site-ul a înregistrat peste 1,6 miliarde de vizitatori. Chatbotul a devenit o adevărată senzație, dar și o provocare pentru mai multe industrii, inclusiv mass-media. Chiar dacă inteligența artificială este folosită în unele redacții pentru a extrage date, a disemina rapid informația și a genera automat conținut media, utilizarea zilnică a acestei tehnologii trezește mai multe întrebări. 

Despre avantajele și dezavantajele acestor algoritmi pentru presă vorbim astăzi, în cadrul primei ediții din noul sezon al podcastului cuMINTE. Vom discuta cu Maia Metaxa, directoarea Școlii de Jurnalism din Moldova și  Felicia Nedzelschi, redactora-șefă a portalului Agora.md.

Ana Sârbu: Din momentul apariției sale, ChatGPT a căpătat rapid popularitate și în Moldova. Felicia, aș vrea să discutăm cum au reacționat redacțiile media și să aflu mai exact cum a fost în cazul vostru. Ați discutat în echipă? Ați creat o anumită strategie? 

Felicia Nedzelschi: Când au apărut primele vești despre ChatGPT, colegii au început să testeze, să-i dea niște taskuri simple, să facă haz despre răspunsurile ChatGPT, să le pună pe chat-ul comun al redacției. După care am văzut că treaba devine din ce în ce mai serioasă și că trebuie să luăm atitudine față de tehnologia care apare la orizont și am testat-o cu toții. După care am avut un training pe care ni l-a ținut colegul nostru, Alex Gurdilă, producătorul AGORA, și ne-a mai spus și niște tips and tricks despre cum să-l utilizăm și la ce este bun. Dar nu cred că am avut o strategie concretă sau foarte serioasă cu privire la ChatGPT, nu face parte încă din strategia noastră editorială. Îl folosim din când în când, dar nu ca o unealtă pe care să o încorporăm deocamdată în strategia noastră. 

Ai spus că doar uneori o utilizați. Când, mai exact, sau unde? Este vorba despre procesarea datelor statistice sau poate a unui raport mai complex?

Felicia Nedzelschi: Da, până la urmă ChatGPT este un generator de texte din texte deja existente. Este bine să înțelegem asta. Este un instrument care te ajută să pui cap la cap informații care deja au fost undeva out pe web, nu este ceva care generează textele de la zero. Este bine să știm asta pentru că conținutul pe care îl generează el nu este original. El te ajută să faci texte să zicem la știri, care-s niște „conserve”. Dar aceste conserve sunt niște știri standardizate, cum ar fi știri din meteo, cum va fi vremea săptămâna viitoare, despre cursul bancar, știri din sport. Tu poate nu ești foarte bun la sport, dar îl rogi pe ChatGPT să-ți facă o știre despre meciul cutare din championshipul cutare. Respectiv, toate informațiile astea deja sunt acolo pe web, el le sintetizează într-o știre care nu necesită efort colosal. 

Maia, dar care a fost reacția echipei Școlii de Jurnalism? Utilizați deja aceste platforme de inteligență artificială în procesul vostru de lucru?

Maia Metaxa: Am început să le integrăm în munca noastră de birou.Le utilizăm uneori, nu întotdeauna. Folosim ChatGPT pentru a genera texte ce țin de marketing, de promovare.

Noi acum suntem în campania de admitere și când suntem în pană de idei putem să-i dăm un cadru, niște sarcini și el generează texte pe care nu întotdeauna le poți folosi, nu întotdeauna sunt foarte bune. Totuși, depinde foarte mult și ce cadru îi dai și ce îl rogi să facă, respectiv, în funcție de asta, îți generează un text cât de cât potrivit pentru ceea ce ai tu nevoie. Dar aș putea povesti despre cum prima dată l-am folosit. Noi la școală, deocamdată, nu avem o politică de utilizare a ChatGPT sau a inteligenței artificiale. La un moment dat va fi nevoie și de o astfel de politică să elaborăm. Imediat cum a fost lansat și a venit valul și în Moldova, am încercat să intru de mai multe ori, dar era extrem de încărcat sistemul și nu permitea accesul. La vreo câteva luni distanță, lucram la un text pentru un proiect, în engleză, și am scris o pagină destul de detaliată, am explicat în ce constă activitatea, am dezvoltat subiectul activităților și am expediat textul acolo unde era așteptat. La un moment dat, la câteva minute distanță, primesc un răspuns în care se spunea: „Da, mulțumim pentru efortul depus, că ne-ai descris atât de detaliat toată activitatea, dar te rugăm să ne spui concis, într-un alineat de vreo șase rânduri cel mult”. Eu deja lucrasem vreo trei-patru ore și zic „Doamne, eu nu mai am niciun fel de energie să mă concentrez acum să rescriu acest text”. Voi, cu siguranță, știți ce înseamnă să lucrezi la un text. Și atunci m-am gândit la ChatGPT, atunci era momentul să-l testez și i-am dat exact sarcina pe care am primit-o eu. În câteva secunde, ChatGPT mi-a dat un alineat de șase rânduri și eu am rămas blocată. Nu îmi venea să cred. Sigur că a trebuit să redactez puțin textul, să pun accentele, să formulez în felul în care aveam nevoie, dar m-a scutit de încă vreo trei ore în care eu să mă gândesc, deja leșinată, fără energie. Și atunci m-am gândit ce coleg bun am găsit (poate colegă). Am venit la birou, eram foarte entuziasmată, luni la ședință am povestit și mi-a rămas că da, el poate fi utilizat din când în când. L-am utilizat pentru a scrie tot felul de anunțuri de angajare, i-am dat la fel cadrul și i-am zis că îmi trebuie un anunț așa, ca tonul să fie așa, să se adreseze unui astfel de grup-țintă și când am citit zic: „Nu pot să cred, este cam exact ce aș fi scris eu”. Noi suntem șocați de viteză, mai degrabă, nu de faptul că vorbim cu o mașină și că ne răspunde în stilul uman, dar de viteza cu care îți livrează niște informații. 

Acești algoritmi pot analiza cantități mari de date și pot genera știri în câteva secunde. Acest lucru permite diseminarea mai rapidă a informațiilor, iar jurnalistul economisește timp. Totuși, care este părerea voastră: ar trebui ca jurnaliștii/jurnalistele să utilizeze AI în procesul de creare a materialelor de presă? 

Maia Metaxa: Cred că dacă această tehnologie poate furniza informații factuale credibile, da, jurnaliștii pot utiliza astfel de creaturi digitale, eu așa le-am numit. Dacă este folosit greșit, pe subiecte care necesită nuanță și înțelegere fină a detaliilor, o înțelegere culturală, atunci ar putea fi credibilitatea nu numai a instrumentului propriu-zis de inteligență artificială, dar și a organizațiilor media. Trebuie să fim foarte atenți când îl folosim, în ce context. Pentru că ai pomenit mai devreme, inteligența artificială are menirea să ne ușureze munca și acest instrument trebuie să fie, în primul rând, în slujba jurnaliștilor, nu trebuie să le facă munca în locul lor.

Felicia Nedzelschi: Țin să fiu de acord cu Maia. Acest instrument cu siguranță trebuie folosit în slujba noastră și ca să ne ușureze munca.

Cred că trebuie de precizat că jurnalismul este foarte versatil și complex și nu se rezumă doar la scrierea știrilor. Când vorbim despre jurnalism este vorba despre data gathering, despre data analysis, ieșiri în teren, storytelling, investigații, despre filmare, podcasting – ceea ce facem noi acum. Jurnalismul și jurnaliștii sunt foarte multilaterali și nu se rezumă la niște scrieri de texte. Respectiv, ceea ce face ChatGPT este o asistență care se rezumă strict la niște texte, un procent foarte mic din munca jurnalistică, ceea ce poate fi de ajutorul nostru și nicidecum nu poate fi vorba despre înlocuirea noastră ca breaslă, cu siguranță, pentru că este o complexitatea atât de mare de activități. Eu zic că jurnalismul are o bună parte din creativitate sau din artă asta în sine, respectiv, la acest capitol nu ne poate înlocui pe noi și nici la analiza datelor și trecerea printr-un filtru. Până la urmă, ceea ce fac jurnaliștii pe lângă toată culegerea de informații, e că mai sunt și un filtru. Ceea ce ne oferă ChatGPT oricum este necesar să trecem prin noi. Dacă la modul mai concret, noi în redacție îl utilizăm la crearea unui rezumat a textelor extrem de mari, cum ar fi proiectele de legi de sute de pagini de la Parlament sau Guvern, pe care nu le poți citi integral și cu atenție. Și chiar și dacă le poți citi integral, este un instrument care te ajută să rezumi informația asta în niște pasaje: „Hey, Chat GPT, rezumă-mi într-o pagină ceea ce scrie în 200 de pagini”. 

Maia Metaxa: Aici, în context, vreau să zic că Bloomberg folosește foarte mult inteligența artificială, anume în analiza datelor. Mai poate fi folosită pentru a identifica modele și anumite tendințe și pentru a genera un draft de articol, adică să începi de la un schelet, să nu începi de la zero, dar să începi de la ceva, iar jurnalistul vine cu experiența lui și pune în context, adaugă perspectiva și vine cu creativitatea necesară ca să facă o poveste, un storytelling captivant, relevant și bine documentat. 

Una dintre cele mai mari provocări căreia trebuie să-i facă față jurnaliștii/jurnalistele care folosesc inteligența artificială în munca lor este să înțeleagă dacă datele generate de AI sunt corecte. Cum considerați, care sunt cele mai mari pericole ale AI în general? Și care sunt temerile voastre cu privire la utilizarea algoritmilor AI? 

Maia Metaxa: Cu siguranță, temerea rezidă în faptul că poate perpetua propagandă, dezinformare, fake news, deep fake, informații părtinitoare. Cum ai zis și tu: ChatGPT are acces la miliarde de date de pe tot Internetul, nu are emoții, nu știe ce este bine și ce este rău. Mie mi-a plăcut ghidul scris de echipa de la BBC, unde se vorbește despre ce este AI, se aduc exemple, se menționează tipurile de AI și se mai spune despre ChatGPT că ar fi un papagal. Dacă stai un pic să te gândești și analizezi, el acționează ca un papagal. Jurnaliștii, cu siguranță, trebuie să fie implicați în procesul de monitorizare, în verificarea conținutului. Noi putem și trebuie să verificăm corectitudinea informațiilor, pentru a identifica aceste nuanțe subtile, ca să evităm difuzarea știrilor false și a dezinformării. Noi suntem obligați să asigurăm imparțialitatea informației. 

Felicia Nedzelschi: Pentru mine, deocamdată, ChatGPT nu este o sursă pe care o pot cita. Și îți spun de ce: nu știu de unde ia informația pe care o livrează. Citând ceea ce spune ChatGPT mă tem să nu ajung într-o situație foarte proastă în care informația pe care o dau să nu poată fi verificată sau să nu fie în general una credibilă. Următorul pas în credibilitatea ChatGPT, pentru mine sau pentru redacție, ar fi ca toată informația pe care o generează să aibă note de subsol. Fiecare paragraf sau frază să fie menționat de unde a fost luată, să mi-o citeze cu link direct sau să facă niște referințe, ca o notă bibliografică, pentru că asta m-ar ajuta pe mine să fac o analiză a conținutului pe care mi-l dă și să văd cu ochiul meu de om, nu de mașinărie, dar de inteligență naturală, și să decid dacă această informație poate fi folosită sau nu. 

Este nevoie de traininguri pentru jurnaliști sau poate este necesar un ghid pentru instituțiile media?

Maia Metaxa: Și una, și alta. Noi trăim niște vremuri care se schimbă atât de repede din cauza sau datorită noilor tehnologii. Lumea se schimbă atât de rapid, inclusiv profesia de jurnalist. Și ca să poți să ții pasul, dacă vrei să ții pasul trebuie să te schimbi, să te adaptezi, să fii flexibil, iar pentru asta trebuie să înțelegi în ce lume trăiești și să înțelegi aceste instrumente care, vrem noi sau nu vrem, vin peste noi. Ele sunt aici și o să rămână pentru foarte multă vreme. Respectiv, este nevoie de traininguri, jurnaliștii înșiși trebuie să fie conștienți că au nevoie să se instruiască constant ca să fie la zi cu ce este nou și cu noile instrumente. În paralel, și același ghid să fie elaborat. 

Felicia Nedzelschi: Am o întrebare către voi, fetelor: dar cine să facă ghidul acesta? Până la urmă, tehnologia aceasta atât de rapid se schimbă încât cine reușește să facă ghiduri? Un an în urmă nimeni nu știa foarte bine despre ChatGPT și uite că acum facem podcasturi despre el. Respectiv, un ghid ar fi binevenit, însă el atât de rapid ar fi trebuit reînnoit. Mă sperie cât de repede se dezvoltă această tehnologie. Este bine să o avem în vizor, din când în când să trecem aceste traininguri, dar eu am impresia că nu suntem ocoliți de potențiale riscuri sau cazuri în care nu știm ce să facem doar pentru că avem un ghid. Pe de altă parte, eu văd un fenomen – Ana, tu câți jurnaliști ai văzut până acum, de la noi, care folosesc cu ardoare ChatGPT, pentru că eu am văzut mai mult din acei care ezită.  

Ana Sârbu: O perioadă destul de îndelungată, am realizat emisiuni de analiză a știrilor false și văd o serie de pericole în ChatGPT mai degrabă decât beneficii. Site-urile care produc conținut fals, în acest moment, pur și simplu înfloresc pentru că autorii nici măcar nu trebuie să mai miște degetele pe tastă ca să construiască știri false – ChatGPT o face tare simplu în locul lor. Se dă comanda, iar AI creează conținutul fals. Lor le rămâne doar să copieze și să publice aceste informații. Iar noi, cei care analizăm conținutul fals și care manipulează, cheltuim ore întregi ca să combatem aceste conținut. 

Maia Metaxa: Pe de altă parte, noi în redacții sau cei care vor să îmbrățișeze noile tehnologii și să fie în pas cu vremurile, trebuie să definească clar rolurile „Iată aici folosim AI, pe partea asta, iar aici o să fim noi, jurnaliștii. Facem jurnalism uman, dacă pot să zic așa, și nu sintetic”. Și atunci, fiind rolurile bine stabilite, știind regulile care sunt, colegii din redacție vor ști: „Aha, iată eu în situația asta, când am cantitate mare de date, o dau ChatGPT-ului sau oricărui alt instrument din ăsta digital și atunci el pe mine mă ajută, iar eu îmi pot elibera timpul ca să fac altceva, de exemplu storytelling sau o altă muncă complexă”.

Felicia Nedzelschi: Mie îmi place contrastul pe care l-ai arătat tu, Ana, când ai zis că cei care fac o sumedenie de fake-uri și dezinformare folosesc pocnind din degete ChatGPT. De ce te-am întrebat, pentru că eu cunosc mulți jurnaliști care ezită să folosească ChatGPT: „Nu cred că o să-mi trebuiască, respectiv nu particip la trainingul despre el, eu doar fac jurnalismul old school”. Desigur, bravo jurnaliștilor care continuă să-și facă munca indiferent de greutăți sau de un potențial de ușurare a muncii, pe care poate să-l ofere ChatGPT. Dar, în momentul în care se duce o luptă mult mai mare între informare și dezinformare, iar inamicul are niște instrumente de partea sa, care îi ușurează munca foarte tare, atunci da, revenim la întrebarea ta de mai devreme. Da, eu cred că trebuie să fim mereu instruiți cu privire la modul în care se schimbă AI-ul. 

Menționăm în articolele noastre despre faptul că am utilizat AI? Unde și în ce circumstanțe? 

Felicia Nedzelschi: Cred că trebuie de menționat neapărat. Îți spun un caz în care redacția noastră a folosit imagini generate de AI. Era vorba despre o campanie a redacției, în care ne promovam abonamentele. Au fost niște imagini generate de AI, în care lideri de țară erau afișați ca fiind în vacanță, citind ceva pe telefon. Era vorba de știrile Agora și îndemnul era: „Ia-ne cu tine în vacanță”. Mai jos am scris un disclaimer că aceste imagini sunt generate de AI. Mi se pare absolut firesc ca și în texte să spunem asta – un asterisc acolo unde sunt pasajele de informație preluate de pe aceleași instrumente, fie este ChatGPT, fie altul. Până la urmă, în cazul în care apare o situație conflictuală, ceva în care tu ești acuzat sau redacția ta este acuzată de dezinformare sau de greșeală în text, tu răspunzi pentru aceste informații publicate. Nu poți da vina pe ChatGPT. Este vorba de respectul și angajamentul tău față de etică în jurnalism, pentru că menționând că alineatul cutare, graficul sau datele au fost generate de ChatGPT, de exemplu, sau de oricare altă platformă/instrument, arăți că ești transparent și în felul acesta îți crești credibilitatea în fața cititorilor. Noi trăim niște vremuri în care mereu trebuie să punem la îndoială orice.

În România a fost creat Consiliul Științific și de Etică în Inteligență Artificială. 28 de experți în inteligență artificială, profesori și cercetători la mari universități și companii tech din România, dar și din străinătate, sunt parte din acest consiliu guvernamental, care sunt responsabili de crearea și implementarea unui mediu sigur și etic pentru domeniul inteligenței artificiale, va oferi suport informațional cu privire la securitatea datelor, folosirea inteligenței artificiale în securitate și respectarea legislației și va pune accent pe protejarea dreptului la confidențialitate, a libertăților civile, precum și drepturilor fundamentale ale omului. Credeți că este necesar un astfel de consiliu și în Moldova? 

Maia Metaxa: Trebuie să ne schimbăm cumva atitudinea, nu trebuie să facem față valului, trebuie să mergem pe val. Bun, probabil la un moment dat neapărat va fi nevoie de politici clare și legi care să reglementeze acest domeniu, dar cât de mare este necesitatea astfel încât noi să creăm un astfel de consiliu? Cred că înainte de asta ar trebui să știm la ce nivel și la ce scară este utilizat, astfel încât să venim cu un răspuns fie de reglementare, fie de elaborare a unor politici. 

Felicia Nedzelschi: Sunt de acord cu Maia, acest val în Moldova nu este atât de mare. Ideea cu consiliul din România este simpatic, dar nu știu cât de funcțional în țara noastră. Având în vedere că nu suntem încă parte a Uniunii Europene și a reglementărilor lor cu privire la datele personale – la noi nici spațiul online nu este reglementat, toată presa online nu este reglementată în Republica Moldova – să reglementezi inteligența artificială și folosirea ei în Moldova mi se pare un vis îndepărtat.

S-a întrezărit între timp o primă mișcare de autoreglementare a presei. O comisie internațională va elabora o cartă privind utilizarea inteligenței artificiale în mass-media. Despre această inițiativă a anunțat organizaţia neguvernamentală internaţională Reporteri fără Frontiere. Potrivit acestora, dezvoltarea platformelor de AI ameninţă „integritatea informaţiei”. Rolul comisiei este să elaboreze un set de principii, drepturi și obligații pentru profesioniștii din domeniul media cu privire la utilizarea sistemelor bazate pe inteligență artificială. Poate fi luată această cartă drept reper pentru echipele de jurnaliști din țara noastră? Ar fi un cod de care s-ar conduce echipa Agora, de care ar ține cont? 

Felicia Nedzelschi: Cu siguranță. De ce nu? Eu aș citi-o și chiar aș introduce elemente din ea în politica editorială. Este vital să mai schimbi din când în când politica editorială, pentru că toate se schimbă și toate trebuiesc împrospătate. Dacă există un asemenea document, mai ales specific pentru jurnaliști, eu zic că este musai să ne uităm peste el și să tragem niște concluzii. Cu siguranță, haideți să-l vedem și să-l analizăm. 

Maia Metaxa: Președinta acestei comisii este Maria Ressa, laureata premiului Nobel, și textul sau carta se vrea un document de referință pentru jurnaliști la nivel global. Respectiv, cred că dacă redacțiile își doresc acest lucru, dacă jurnaliștii/jurnalistele țin la reputația lor și vor să rămână credibili/credibile – trebuie să adere la această cartă. 

Apropo, ați adaptat cumva politica editorială după ce a apărut Chat GPT și celelalte platforme? 

Felicia Nedzelschi: Nu, dar tocmai suntem într-un proces în care cu niște experți internaționali lucrăm la asta, așa că va fi momentul oportun să facem schimbarea. 

Totuși, cum găsim un echilibru între valorificarea sistemelor AI și păstrarea elementului uman în crearea materialelor de presă?

Maia Metaxa: Eu cred că putem găsi echilibrul prin colaborarea cu aceste platforme/instrumente/creaturi digitale și prin definirea clară a rolurilor. Am zis mai devreme, să știm când să apelăm la ChatGPT, de exemplu, sau la oricare altă platformă, și când ne vedem de treabă și ne exercităm rolul de jurnaliști adevărați. Aceste instrumente AI deja fac parte la nivel global din trusa de instrumente ale jurnaliștilor. Multe redacții ca Bloomberg, Forbes și The Guardian o folosesc, așa că cred nu trebuie să ne speriem de ele, dar să le studiem atent, să definim rolurile și să fim flexibil. Nu ne amenință munca și joburile noastre, pentru că munca de jurnalist presupune altceva, este vorba de creativitate, curiozitate, de același storytelling, de investigații și de a trage la răspundere guvernanții. 

Felicia Nedzelschi: Țin să fiu de acord cu Maia. Pentru mine nici nu este vorba de păstrarea unui echilibru, pentru că eu nu văd încă un dezechilibru dintre munca mea și influența ChatGPT. Munca mea din fiecare zi implică editarea de texte, scriere și poate din când în când un raport ocazional în care tot eu îl rog pe ChatGPT să îmi adapteze propriul meu text, să-l facă mai lung, mai scurt, să-mi găsească niște cuvinte mai potrivite. În munca mea jurnalistică eu nu simt ca acest instrument să mă copleșească, nu sesizez dezechilibru. Mai degrabă am dilema cum să păstrez echilibrul între viața profesională și personală, în tot ce privește sănătatea mentală. Cred că aici trebuie de vorbit despre echilibru, iar ChatGPT deocamdată este departe de a mă dezechilibra. Atâta timp cât ținem la niște regulamente și mai trecem și niște traininguri la timpul util, mai introducem noțiunile astea în politicile noastre editoriale și ținem pulsul pe știrile despre AI, eu cred că suntem bine. 

La nivel internațional, totuși, acest dezechilibru a început deja să apară. Tehnologia deep fake creează constant videoclipuri, fotografii false. Cum să facem față acestor tipuri de conținut și cum noi să nu cădem în plasa acestor falsuri?

Maia Metaxa: Eu am un răspuns tare scurt: prin atitudine profesionistă, respectând standardele în jurnalism, aplicând rigorile meseriei, punând totul la îndoială și verificând în primul rând. 

Felicia Nedzelschi: Double check, triple check – munca noastră cea de toate zilele, care înseamnă verificare și răsverificare. Și până la urmă, mai este și faptul că trebuie să-ți asculți intuiția. 

Totuși, ce facem? Apelăm la un specialist în IT ca să ne explice care fotografie sau video este fals?

Felicia Nedzelschi: Absolut. Bine, nu este vorba neapărat de un IT-ist de serviciu care te ajută să deconspiri ceva. Dar în breaslă noi utilizăm instrumente care ne ajută să verificăm originea unei poze sau a unui video. Acum nu o să mi le amintesc pe toate, dar ce pot să-mi amintesc este o simplă căutare a unei fotografii care te ajută să găsești sursa originală, de unde a apărut această fotografie. Încarci fotografia prin Google Search și o să vezi originea ei. Pentru video există același Invid, care te ajută să vezi cine a generat prima dată secvența sau dacă este vorba de AI la mijloc. Mai există platforme care te ajută să treci prin filtrele lor niște imagini sau video și pot să spună dacă sunt reale sau generate de AI. Eu cred că este timpul să ne facem nu doar liste cu platforme de AI, dar și liste cu platforme care ne ajută să detectăm ce-i aia AI și cum să discernem fake-ul de realitate. Acum este momentul. 

Maia Metaxa: Iar dacă nu știți de unde să luați listele astea, eu îndemn oamenii să vină la Școala de Jurnalism, să se înscrie la programele și evenimentele noastre. Acum este perioada de admitere. 

***

Drag ascultător al podcastului nostru, îți mulțumim pentru fidelitate. Ești al treilea an alături de noi. Dacă ai întrebări sau idei pe care dorești să le discutăm în cadrul podcastului cuMINTE, trimite-le la adresa de email a Centrului pentru Jurnalism Independent – redactia@ijc.md. Filtrează cuMINTEa trează! Ne găsești pe Mediacritica.md, Google Podcasts, Soundcloud și Youtube.

—————————————————–

Podcastul cuMINTE este realizat de Centrul pentru Jurnalism Independent cu sprijinul Institutului pentru Raportare despre Război și Pace (IWPR). Opiniile exprimate în acest material nu reprezintă neapărat cele ale IWPR sau ale partenerilor săi.