Falsuri recente
Dacă vrem o societate democratică sănătoasă, e nevoie de reglementarea algoritmilor inteligenței artificiale și ai rețelelor de socializare, consideră Prof. Dr. Florian Töpfl, care conduce Catedra de Comunicare Politică axată pe Europa de Est și Regiunea Post-Sovietică a Universității din Passau, Germania. El este liderul unei cercetări de amploare care examinează modul în care țări autoritare precum Rusia își dezvoltă propriile modele lingvistice mari (LLM) sub controlul strict al regimului, în scopuri propagandistice. Proiectul finanțat de Institutul Bavarez de Cercetare pentru Transformare Digitală (bidt) își propune să înțeleagă mai bine impactul dezvoltării inteligenței artificiale autoritare asupra societăților democratice și a ecosistemelor informaționale.
Discuție facilitată de Școala de Jurnalism din Berlin (Berliner Journalisten-Schule).
Autoare: Natalia Sergheev
Natalia Sergheev: În ce mod dezvoltarea inteligenței artificiale a modelat și schimbat fluxul informațional în societate?
Florian Töpfl: Există schimbări majore, deoarece inteligența artificială va fi încă o platformă prin care evaluăm informațiile. Orice am făcut anterior cu motoarele de căutare, sunt șanse foarte mari să o facem și cu inteligența artificială. Desigur, în context profesional e folosită în multe feluri: jurnaliștii o folosesc pentru cercetare, universitățile pentru predare. Nu există aproape niciun subsistem al societății care să nu fie afectat de inteligența artificială.
Natalia Sergheev: Ce impact va avea asupra mass-mediei, în opinia Dvs?
Florian Töpfl: Nu am făcut cercetări în acest sens, dar cred că va afecta presa din punct de vedere economic, deoarece, într-un mod foarte complex vor fi afectate fluxurile financiare, felul în care publicitatea circulă pe internet, modul în care este distribuită, ce trebuie să faci pentru a-ți obține partea din întreg. Va mai fi afectată și munca jurnalistică, deoarece mulți jurnaliști vor folosi inteligența artificială pentru a face cercetări, dar și pentru a-și îmbunătăți articolele sau pentru a edita articole și alte tipuri de sprijin profesional.
Natalia Sergheev: Eram pregătiți, ca societate, de venirea inteligenței artificiale și de integrarea ei atât de profundă în spațiul nostru informațional?
Florian Töpfl: Dacă ne uităm în trecut, există o literatură vastă despre cum tehnologia a afectat schimbările sociale. Datează de la radio, apoi a apărut televiziunea, apoi au apărut faxurile. Apoi, în sfârșit, în anii 1990 sau la începutul anilor 2000, a apărut internetul. După care a existat Internetul interactiv, web 2.0, după cum era numit. Dezvoltările tehnologice au modelat întotdeauna societățile în moduri complexe, dar, în mediul academic există diverse curente de gândire despre modul în care tehnologiile schimbă lumea. O abordare este că oamenii pot modela tehnologia. Adică, ce consideri drept inteligență artificială: interfața web a Chat-GPT sau instrumentul integrat în contul tău WhatsApp? E dificil să definești ce este inteligența artificială, în ce termeni anume te gândești la această tehnologie sau la un anumit dispozitiv. Umanitatea poate influența orice tehnologie, totul depinde de ce fel de modele folosim, cum antrenăm aceste modele, cum implementăm aceste modele, ce fel de măsuri de siguranță introducem. Avem o marjă enormă de manevră. Felul în care modelăm aceste tehnologii va determina felul în care va fi schimbată societatea. A existat o dezbatere amplă, de exemplu, dacă internetul este o tehnologie a eliberării sau una a controlului? Și ambele lucruri au ajuns să fie valabile, în contexte diferite.
Natalia Sergheev: Vorbind despre moralitate și modul în care putem modela tehnologiile... În prezent sunt două pârghii principale prin care inteligența artificială poate fi gestionată: controlul exercitat din partea autorităților și din partea companiilor IT, care dețin acești algoritmi. Credeți că aceste entități și-au dovedit bunele intenții pe parcursul timpului? Putem avea încredere ca acestea să modeleze inteligența artificială în așa mod încât să lucreze în beneficiul societății?
Florian Töpfl: Contează persoana care controlează algoritmul, direcția în care acesta se dezvoltă. Oamenii sunt diferiți, ei pot avea valori diferite. Dacă vrei să știi cum va acționa o companie din punct de vedere etic, trebuie să te uiți la CEO-ul acesteia, dacă are un CEO foarte puternic, cum ar fi Elon Musk sau alți oameni din conducerea companiilor IT. Din perspectivă morală, ei au puterea de a lua decizii. Dar economic vorbind, ei întotdeauna vor urma logica financiară, fiindcă scopul lor e să facă bani. În același timp, dacă te uiți chiar și la Elon Musk, el nu a ales întotdeauna calea banilor. Există și ființe umane care pun obiectivele idealiste sau ideologice mai presus de profit.
Natalia Sergheev: Ați menționat motivația economică a companiilor IT, dar ce scopuri urmăresc oficialii de stat când e vorba de controlul inteligenței artificiale, al algoritmilor?
Florian Töpfl: Motivația autorităților, în special în democrațiile tinere, e să controleze mass-media. Ceea ce am văzut în Europa de Est după căderea Uniunii Sovietice, a fost că foarte rapid guvernele au vrut să controleze din nou media și să restricționeze libertatea presei. Aceste tendințe se observă, fiindcă ei vor să-și impună politicile, ei vor să rămână la putere, chiar și în democrațiile tinere. Dacă ne uităm la dezvoltarea televiziunii publice în Europa de Est, a fost nevoie de decenii pentru a asigura un echilibru, pentru a înțelege în general ce înseamnă echilibru în presă. Mai este nevoie de partide politice, de o societate civilă activă. Este nevoie de decenii pentru a dezvolta un sistem de servicii publice așa cum există în unele țări din Europa de Vest și chiar acolo acestea sunt sub pericol permanent, sunt atacate încontinuu. Aș spune că acestea sunt motivațiile de care se guvernează autoritățile publice.
Natalia Sergheev: Sunteți liderul unui proiect de cercetare despre inteligența artificială autoritară, care analizează modul în care modelele lingvistice mari sunt adaptate la propaganda rusească. Aș dori să explicăm câteva aspecte de bază: ce înseamnă inteligență artificială autoritară și date autoritare?
Florian Töpfl: Dacă te uiți la multe dintre regimurile autoritare, cum ar fi China, cum ar fi Rusia, aceste regimuri au înțeles foarte bine că trebuie să controleze rezultatele inteligenței artificiale și că o pot face. De exemplu, China a interzis unele modele occidentale, așa cum a făcut înainte și cu alți algoritmi occidentali, cum ar fi rețelele de socializare americane. Nu doar că le-au interzis, dar au și lansat propriile modele, pe care le monitorizează foarte atent și le cenzurează. Rusia va face probabil același lucru. Dacă te uiți la Yandex GPT, de exemplu, și dacă-l întrebi despre un eveniment recent, acesta va efectua o căutare Yandex Search, și se va uita la conținutul primelor 5-6 rezultate. Și, bineînțeles, știm că pe Yandex apar doar știri de pe surse media înregistrate oficial, deci informații din surse independente nu vor fi afișate. Rezultatele prezentate vor fi din surse loiale regimului, deci vor sprijini ideologia și politicile oficiale. Acesta e un exemplu de integrare a inteligenței artificiale în contextul mai larg al mass-mediei, al site-urilor web, al surselor oficiale online și a internetului controlat, general vorbind.
Natalia Sergheev: Ce înseamnă asta pentru cetățean? Ceea ce descrieți sună ca o încercare de a crea o cameră de ecou, o realitate virtuală totalmente controlată de guvern.
Florian Töpfl: Cetățenii vor percepe acest lucru ca pe un alt canal de comunicare al regimului. Și dacă vă uitați la sectorul media din Rusia de astăzi, acesta are aspecte de totalitarism sau de control deplin. Canalele TV sunt controlate, ziarele sunt controlate, există site-uri de știri controlate, dar și algoritmii principalelor rețele sociale, cum ar fi VK, sunt controlați și cenzurați, chiar și motoarele de căutare sunt cenzurate. Inteligența artificială tot poate deveni un instrument de pe această listă. Sectorul media ar putea fi considerat o cameră de ecou, el transmite doar ideologia regimului, dar nu e vorba doar de presă, ci de un întreg aparat de propagandă sau de un aparat ideologic, cum se numea în anii 1980 și 1970. E vorba de școli, de universități, teatre, muzee, spațiile publice, chiar și companiile. Toată societatea e integrată într-o complexă sferă de producție ideologică.
Natalia Sergheev: Care sunt particularitățile propagandei bazate pe inteligența artificială? Ce o face atât de periculoasă?
Florian Töpfl: Curioasă întrebare... Știți ce a făcut motoarele de căutare periculoase? Faptul că mulți oameni credeau că își formulează o opinie proprie, atunci când consultă rezultatele lor. Dacă crezi că obții informații independente prin intermediul lor, atunci probabil ai tendința să te lași convins mai ușor. Oamenii nu realizau că primele 20 de rezultate erau controlate de mașinăria ideologică, chiar dacă ar exista un fel de pluralism limitat. Aceasta este una dintre probleme. A doua, și aici apare paralela cu inteligența artificială, e că există iluzia că poți avea o conversație, că poți pune o întrebare și primi un răspuns. Pe o notă conexă, o nouă „facilitate” a inteligenței artificiale, când spun „facilitate” am în vedere o nouă oportunitate de a interacționa cu tehnologia, e că poți conversa cu ea, poți vorbi, primi feedback și opinii, poți da un argument și ți se oferă un contraargument sofisticat. Așa că uneori mă gândesc la asta ca la „agitatori” digitali, similari cu cei care existau în spațiul sovietic. În vremurile sovietice erau oameni care mergeau din casă în casă la nivel individual, puteai discuta cu ei despre noile dezvoltări. O nouă schimbare e că există dispozitive noi. De exemplu, Alisa – o boxă mică portativă… Am vorbit anterior despre modul în care oamenii pot să modeleze mass-media, dar odată ce ai o tehnologie sau un dispozitiv precum Alisa, ne putem gândi la acest dispozitiv ca având o „facilitate”, în sensul că înlesnește îndeplinirea anumitor acțiuni umane. În cazul Alisei, o facilitate ar fi că nu e nevoie să pornești calculatorul, o ții pe masa din bucătărie, o poți întreba ceva oricând, nu trebuie să tastezi... Are o gamă mai largă de funcționalități: îți poate spune povești, chiar poți comanda o pizza. Acum, are un set foarte specific de facilități și cred că asta face ca acest instrument să fie oarecum problematic, pentru că este o altă sferă în care se poate obține controlul, unde regimul poate chiar să promoveze subtil o ideologie și, desigur, e vorba și de potențialul masiv de supraveghere asupra civililor.
Natalia Sergheev: Și desigur la prima vedere așa un dispozitiv ar putea suna inofensiv. Practic, e un asistent personal care se află în casa ta. Cu toate acestea, poate fi folosit în moduri mult mai periculoase.
Florian Töpfl: Da, le spune copiilor povești, dar aceste istorii pot conține anumite ideologii. Și dacă o rogi să-ți spună niște știri, nu știu dacă ați avut ocazia să o folosiți, dar oferă doar informații din surse oficiale ale Rusiei. Deci poți alege ce mass-media locală vrei să urmărești. Există o opțiune în care poți bifa agențiile de presă de la care vrei să afli știri, dar desigur, toate sunt loiale regimului.
Natalia Sergheev: Îmi este greu să înțeleg cine este de fapt publicul acestor dispozitive? Pe cine au în minte persoanele din spatele inteligenței artificiale când creează aceste tehnologii de supraveghere? Cum ar arăta portretul acestei persoane?
Florian Töpfl: E important să înțelegem că există aceste modele la scară largă, modele de fundație, care sunt foarte greu de antrenat. Acestea sunt ceea ce se numește „model de uz general”, cum ar fi noul model de Chat-GPT sau orice altceva. Dar odată ce cheltui câteva milioane de dolari ca să le antrenezi, poți să le adaptezi și să le faci mai eficiente în domenii specifice. De exemplu, poți folosi modelul ca asistent al unui medic, care să facă în locul său programările, sau ceva de acest gen. Pentru asta va fi nevoie doar de niște adaptări minime și reglaje fine. Dar o adaptare despre care aș vrea să vorbesc este „Retrieval-Augmented Generation”, adică „Generare Augmentată prin Recuperare”. În acest caz, se face căutare într-o bază de date specifică, iar modelul e folosit doar pentru a transforma informațiile din această bază de date în limbaj oral, dacă aș fi să explic în termeni simpli. Acum, gândiți-vă cum funcționează căutarea Alisei pe Yandex. Modelul caută un răspuns în baza de date Yandex, extrage primele cinci rezultate, apoi oferă un răspuns la întrebare în baza primelor cinci rezultate. Ați putea folosi chiar și un model occidental pentru a îndeplini această sarcină și va fi, în linii generale, un proces similar. Chiar dacă un anumit nivel de ideologie este încorporat și în modelul fundamental.
Natalia Sergheev: În ce mod diferă conținutul generat de modelele lingvistice mari create în state democratice și cele autoritare?
Florian Töpfl: Desigur, diferențele sunt majore, discrepanțele sunt mari. Când accesezi un model lingvistic mare în China, pe un dispozitiv la care ai acces acolo, în rezultate nu vor apărea niciodată critici la adresa Partidului Comunist. Pur și simplu, nu se va întâmpla. Pe când atunci când folosești așa un model într-o țară democratică, de obicei vei putea obține informații care conțin critici față de guvernul la putere. S-ar putea chiar să primești mai multe informații negative decât pozitive despre autorități, exact ca într-un ziar. Dacă consumi presa într-o țară democratică, practic vei găsi doar critici. Aproape 80% din știri sunt negative și critice la adresa puterii, deoarece acestea au fost dintotdeauna orientate spre îmbunătățirea comportamentului guvernamental. Pe de altă parte, dacă citești ziare din țări autoritare, situația e diferită. Acest lucru îmi amintește de o vorbă veche din Uniunea Sovietică, unde puteai critica practic orice, în afară de autorități sau Partidul Comunist.
Natalia Sergheev: La o primă vedere poate să parcă că regimurile autoritare afectează în principal propriii cetățeni. Dar oare dezvoltarea inteligenței artificiale autoritare afectează oamenii care trăiesc în democrații? Dacă nu sunt cetățeană rusă, de exemplu, cum mă pot afecta tehnologiile lor?
Florian Töpfl: Trebuie să înțelegem că tehnologiile au fost întotdeauna o cale de comunicare cu lumea externă. Când te uiți la inițiativa Chinei numită „O centură, un drum” (Belt and Road Initiative), când te uiți la întreaga politică externă a Rusiei, ambele sunt foarte expansive și ambele au momentan scopul să capteze sfere de influență. Una dintre modalitățile să o faci e să obții controlul asupra infrastructurii critice: să controlezi porturi, să controlezi drumuri, diverse industrii. Desigur, una dintre infrastructurile critice e tehnologia comunicațiilor. China va căuta să aibă cât mai multe țări în care să se folosească telefoanele lor mobile, software-ul, rețelele sociale. Este doar o altă sferă a politicii externe. Și dacă decizi să folosești tehnologia altei țări, ești într-o anumită măsură dependent de această țară. Acestea sunt doar probleme de bază... Dacă folosești tehnologiile unui guvern autoritar, ești dependent de deciziile unui guvern autoritar.
Natalia Sergheev: Dar cum rămâne cu conținutul pe care sunt antrenate modelele lingvistice mari? Aceste date pot fi compromise intenționat cu informații propagandistice?
Florian Töpfl: Înțelegerea procesului de antrenament al acestor modele este crucială. Vorbind în termeni simpli, modelul trebuie să citească o mulțime de lucruri și multe modele occidentale, de exemplu, se bazează pe Wikipedia, deci toate cunoștințele pe care le au provin de pe Wikipedia și acestea sunt informațiile pe care le folosesc [atunci când răspund la întrebări]. Desigur, mai citesc și conținut care este disponibil pe larg pe Internet, cum ar fi paginile web ale universităților. De exemplu, mi-am dat seama că dacă întrebi Chat-GPT-ul despre propaganda rusă, el uneori face referință la un articol universitar pe care l-am scris eu. Dacă-l întrebi despre surse, el arată interviul meu pe care l-am acordat serviciului nostru de presă despre unul dintre proiectele mele ce țin de inteligența artificială. Deci când își formulează răspunsul, Chat-GPT se bazează și pe aceste informații.
Acum, problema este: „Ce citesc aceste modele lingvistice mari?” Dacă cel care controlează aceste modele consideră că paginile web ale universităților sunt surse de încredere, atunci se poate întâmpla ca articole precum cel din serviciul nostru de presă să ajungă în datele de instruire și apoi în baza de cunoștințe. Dacă acest controlor declară că surse sponsorizate de Serviciile Secrete Ruse, cum ar fi NewsFront sau orice altă, sunt sursă de încredere, atunci aceasta poate ajunge într-un mod similar în baza de cunoștințe. Totul depinde de opinia factorilor de decizie din Vest, de companiile occidentale, ce fel de surse sunt considerate de încredere și sunt admise ca și date pentru antrenament. Și există niște studii inițiale care arată că unele site-uri false rusești au ajuns în aceste date de training. Dacă noi, în Germania, de exemplu, sau dacă oameni din Moldova, folosim modele lingvistice mari din Statele Unite, depindem de decizia lui Elon Musk sau a oamenilor de la OpenAI, câți bani investesc ca să aibă doar surse de încredere pentru date. Și după cum știm din experiențele anterioare cu marile companii de rețele sociale, acestea nu sunt deosebit de interesate să investească bani în moderare, mai ales în țările mici, unde aduc puține beneficii și unde autoritățile nu au capacitatea să depună presiune asupra lor ca să facă asta.
Natalia Sergheev: Vorbind despre importanța surselor de încredere, experții media adesea susțin că, pentru a contracara propaganda, trebuie să investim în educație mediatică. Credeți că odată cu apariția inteligenței artificiale acest lucru este încă adevărat? Este suficientă alfabetizarea media?
Florian Töpfl: Nu. Cred că educația media este importantă, dar nu va fi suficientă, nu va fi niciodată suficientă. Sunt convins, sau cel puțin sunt destul de încrezător, că trebuie să controlăm algoritmii în mod democratic. Trebuie să existe politici care să reglementeze ce înseamnă date sigure pe care aceștia sunt antrenați, care să respecte regulile discursului public democratic. Altfel, nu va funcționa niciodată.
Natalia Sergheev: Într-adevăr, e una să citești surse mass-media, unde informația e verificată de editori și compilată atent, astfel încât să creeze o imagine complexă a realității, dar e cu totul altceva să consumi doar conținut de pe rețelele sociale, care au o altă misiune decât presa independentă…
Florian Töpfl: Așa e. Comunicarea politică în democrații a fost reglementată dintotdeauna. Dacă vă uitați atent la campaniile electorale, există o mulțime de reguli în multe state democratice cu privire la cine poate dona partidelor și cum se face această tranzacție. Și în Germania avem reglementări privind câtă publicitate gratuită trebuie oferită partidelor... Există reguli complexe privind desfășurarea dezbaterilor în așa mod încât să fie imune influenței oamenilor bogați, de exemplu. Există și reglementări cu privire la cine poate deține un canal TV, de exemplu, în Germania, în multe alte țări există limitări privind cine poate controla canalele TV. Așadar, cred că trebuie să transferăm acest tip de gândire în sfera rețelelor sociale. Desigur, ar fi mult mai dificil pentru că este un fenomen global și este o provocare nouă. Dar dacă vorbim pe termen lung, unul sau două decenii, ca democrația să continue să existe este nevoie de reglementarea rețelelor sociale și a altor instrumentele puternice, cum ar fi inteligența artificială.
Natalia Sergheev: Unii ar putea spune că asta ar încălca dreptul la libertatea de exprimare.
Florian Töpfl: Da, bineînțeles, va încălca dreptul la libertatea de exprimare, dar dreptul la libertatea de exprimare nu este singura valoare pe care o ai într-o democrație. Este o neînțelegere. Imaginați-vă că 10 oameni stau în jurul mesei și toată lumea are dreptul la exprimare, libertatea de exprimare se va rezolva prin strigăte. Dacă vrei să acționezi coordonat și dacă vrei să ai o viață socială respectuoasă, trebuie să ai reguli: cine vorbește, în ce ordine. Iar oamenii care nu dețin la fel de multă putere în societate ca alții tot trebuie să aibă dreptul să vorbească. Democrația nu funcționează fără protecția minorităților. Altfel, majoritatea va prevala întotdeauna. Imaginați-vă o situație în care [...] 60% dintre oameni își doresc un lucru și 40% dintre oameni își doresc altceva, atunci într-o societate majoritară cele 40% nu vor avea niciodată un cuvânt de spus, deoarece toate deciziile sunt luate de cele 60%, sau de 51%. Deci trebuie să existe niște reguli care măcar să protejeze aceste 40%.
Natalia Sergheev: Moldova se pregătește pentru alegeri parlamentare importante care ar putea influența soarta vectorului pro-european al țării. Mașinăria de propagandă lucrează neobosit pentru a perturba procesele democratice. Care sunt câteva dintre temele generale ale propagandei rusești bazate pe inteligență artificială, pe care le-ați observat în ceea ce privește țările din Europa de Est? La ce ar trebui să fim atenți?
Florian Töpfl: Propaganda poate fi foarte specifică în funcție de țară. Depinde de situația de pe teren și voi probabil știți situația cel mai bine. Dar, în linii generale, propagandă rusească poate fi orice le servește intereselor lor. Există studii în care s-a aflat că atunci când au intervenit în alegerile din Statele Unite, ei au susținut ambele părți, atât membrii mișcării Black Lives Matter (BLM), cât și adepții supremației albilor. Au amplificat vocile ambelor extreme, fiindcă scopul lor la acel moment era să creeze diviziune în societate. Și asta nu se aliniază neapărat cu ideologia regimului. Sau, de exemplu, dacă te uiți la campaniile de vaccinare, dacă te uiți la ce a făcut RT în multe țări străine, a fost critică la adresa campaniei de vaccinare. În timp ce regimul rus din interiorul Rusiei promova vaccinarea împotriva COVID-19. Poate avea două narative complet diferite și obiective complet diferite în străinătate și acasă. Totul depinde întotdeauna de interesul lor. Putin a declarat că destrămarea Uniunii Sovietice a fost una dintre cele mai mari catastrofe geopolitice din secolul XX. Deci, în esență, asta înseamnă că vor să reconstruiască ceva similar acestei structuri de stat. Vă puteți imagina ce înseamnă asta, aproximativ.
Natalia Sergheev: Înseamnă că vor face orice pentru a promova acest obiectiv, vor sprijini pe oricine. Uneori se pare că înțelegem greșit propaganda și scopul acesteia, deoarece credem că vor încerca să ne convingă că Rusia sau China sau oricine altcineva este cea mai bună opțiune, când nu este neapărat cazul.
Florian Töpfl: Nu este vorba doar de crearea unei imagini pozitive a Rusiei, este mult mai mult decât atât. Ține de crearea diviziunii sociale, sprijinul mișcărilor extremiste de dreapta, sau pur și simplu provocarea unor daune, cum e în cazul unor țări occidentale.
Natalia Sergheev: Un soi de agenți ai haosului.
Florian Töpfl: Da, promovarea disensiunilor, destabilizarea democrațiilor. Voiam să mai menționez un aspect – uitați-vă la Ucraina. De prin anii 2010, ei tot acumulează experiență. Ei au învățat cum să acționeze, știu care sunt canalele folosite [de propagandiști] și știu cum să contracareze acest tip de influență. Și cred că putem învăța cu toții multe de la felul în care au acționat în anii 2010 sau după anexarea Crimeii, pentru că au dezvoltat o mulțime de practici care pot fi utile tuturor.
Urmărește-ne pe Facebook, Instagram, Telegram și TikTok.
Ai depistat un fals? Raportează-l pe semnale.stopfals.md/ro și noi îl vom dezminți!
Relevant
Comments 0