ANALIZĂ Cum s-au transformat rețelele sociale în arme de falsificare a realității
Despre războiul informațional și cel cognitiv, dictatura emoțiilor și manipularea algoritmilor de pe rețele sociale în scopul falsificării realității, a vorbit prof.univ.dr.Alina Bârgăoanu, expert în combaterea dezinformării, la Serviciul de noapte cu Maria Țoghină.
Articol de Luminiţa Voinea, 27 Februarie 2025, 15:20
Lumea se schimbă cu repeziciune, iar marile democrații au trecut în 2024 prin momente electorale importante.
2025 nu mai seamănă deloc cu anul precedent, ba chiar vine cu o ruptură, care produce anxietate și nesiguranță la nivelul opiniei publice.
“Momentele electorale au dus la această situație, în care efectiv anul 2025 pare că nu mai seamănă deloc cu 2024, adică nu este o continuare ‘business as usual’ a anului anterior, ci este un moment de ruptură. Aceasta ar fi principala concluzie, faptul că efectiv, într-un an de zile, ceea ce la scara istoriei este foarte, foarte puțin, ne-am trezit într-o cu totul altă realitate, lucru care produce anxietate, nesiguranță”, este de părere prof.univ.dr. Alina Bârgăoanu, decan al Facultății de Comunicare și Relații Publice din cadrul SNSPA, expert european în combaterea dezinformării și membru în Consiliul Consultativ al Observatorului European pentru Mass-Media Digitale, finanțat de Comisia Europeană.
Într-o analiză făcută la Serviciul de noapte cu Maria Țoghină, Alina Bârgăoanu explică faptul că ceea ce trăim reprezintă rezultatul unui ecosistem de informare total schimbat, iar ritmul schimbărilor în ceea ce privește comunicarea este atât de mare încât ne simțim copleșiți, nedumeriți, axioși pentru că nu suntem pregătiți, nu avem o perioadă istorică similară care să ne fi antrenat pentru un ritm al schimbărilor atât de mare.
După austeritatea informațională de dinainte de 1989, a explodat presa scrisă, apoi radiourile și televiziunile, au apărut mugurii internetului, apoi rețelele sociale, a apărut Inteligența Artificială, CGPT și odată cu ele au venit aceste posibilități enorme de creare de conținut.
Întreaga societate este prinsă în această vâltoare, iar efectul noilor tehnologii și al schimbărilor se simte la nivelul tuturor generațiilor.
Războiul cognitiv și dictatura emoțiilor
Există lucrări de specialitate care încadrează informația în zona “armelor”.
De multă vreme nu mai vorbim despre simple acțiuni de distorsionare a adevărului, a faptelor, ci vorbim despre război informațional, război politic-informațional sau chiar război cognitiv.
“În acest moment, ecosistemul informațional a fost transformat într-o adevărată armă. De multe ori, platformele digitale pot fi transformate în platforme de pe care se desfășoară acțiuni de alterare a realității, de alterare a cogniției, de instalare a dictaturii emoțiilor. Forța noilor instrumente de comunicare de a altera realitatea este într-adevăr considerabilă. Din cauza aceasta și apărarea în ceea ce privește aceste arme trebuie să fie pe măsură, adică dacă îmbrățișăm această metaforă a războiului informațional, războiului cognitiv, înseamnă că nu poți să lași oamenii chiar de capul lor să se apere ei singuri. Trebuie să fie ajutați de un set principii, trebuie să fie foarte mult leadership”, punctează expertul în combaterea dezinformării.
Manipularea algoritmilor social media în campaniile electorale
Ceea ce s-a întâmplat în Românnia în contextul campaniei prezidențiale de anul trecut a reprezentat punctul culminant al unor campanii de influență care fie nu au fost detectate, fie au fost ignorate.
“Oamenii nu s-au trezit în octombrie că regretă perioada comunistă și după aceea au găsit un candidat care le-a dat o platformă de exprimare a aceste idei. Al doilea lucru, ar fi că s-a discutat foarte mult despre faptul că un anumit candidat a avut o prezență foarte masivă pe TikTok și că TikTok-ul este de vină. Au început tot felul de analize. Evident că pe TikTok, amprenta digitală a candidatului pe care o analizăm a fost una mai pregnantă. Dar, conform observațiilor mele, este vorba despre o campanie sau despre o prezență pe mai multe platforme. Eu cred că forța acestei campanii a venit tocmai din faptul că, de cele mai multe ori, conținutul a trecut foarte ușor de pe TikTok pe Facebook, pe WhatsApp, pe Instagram, a trecut puțin și prin televiziuni, de prin televiziuni s-au luat fragmente și după aceea din nou a fost alimentat TikTok-ul, Facebook-ul și așa mai departe. Vorbim despre o campanie pe mai multe platforme”, a explicat Alina Bârgăoanu.
Un alt punct se referă la faptul că s-a analizat foarte mult conținutul – dacă este adevărat sau fals – și mai puțin circulația conținutului.
“Atunci când vorbim despre dezinformare, propagandă, noi ne axăm foarte mult pe conținut și mă refer inclusiv la comunitatea de cercetători, care s-a axat foarte mult pe conținut. Dacă este adevărat, dacă este factual. Eu cred că, dacă este să vorbim despre război cognitiv, acesta interferează mai mult cu circulația conținutului. Deci cred că miza acestei campanii are de-a face cu manipularea algoritmilor social media. Deci, nu cu propagarea unui anumit conținut care câteodată este factual, câteodată este nefactual și așa mai departe. Miza a ceea ce s-a întâmplat a avut de-a face cu manipularea algoritmilor și un lucru pe care îl spun demult despre dezinformare, este faptul că dezinformarea nu este neapărat o fraudă cu adevărul, ci este mai ales o fraudă cu emoțiile noastre, cu atenția noastră și cu felul în care circulă un conținut pe social media”.
Popularitatea unei informații este interpretată de creierul nostru ca fiind un indiciu de validare
Manipularea algoritmilor de pe social media este menită să te țină captiv într-o bulă informațională unde vei primi doar ceea ce îți place să vezi și să auzi.
În plus, folosirea Inteligenței Artificiale în comunicarea pe rețele sociale are capacitatea de a distorsiona continutul si mai mult, creând impresia de popularitate, deci de adevăr.
Lucrurile se agravează când vine vorba despre campaniile electorale.
Folosind o metaforă din viața reală, Alina Bârgăoanu explică faptul că diferența dintre instrumentele clasice de marketing electoral și capacitățile ofensive folosite în războiul cognitiv în timpul proceselor electorale, ar putea fi redată precum diferențele dintre tehnicile normale de pescuit și pescuitul pe bază de explozibil.
“Eu cred că forța Inteligenței Artificiale, în acest moment, este tot această forță legată de a distorsiona distribuția conținutului. Adică, de a genera pagini de Facebook, de exemplu, care sunt generate în totalitate cu Inteligența Artificială, dar și de a genera audiențe de tip AI. Chiar există o investigație care a fost făcută de pagina ‘AI de noi’, care a documentat pagini care sunt generate cu Inteligență Artificială. Care este problema cu aceste pagini? Că ele generează în mod artificial și audiențele, adică pagina respectivă care se cheamă, să spunem cu titlu de exemplu, ‘Tradiții românești’, spune că are 70.000 de membri și are 70.000 de urmăritori. Acei urmăritori nu sunt toți reali. Abilitățile scăzute în zona alfabetizării digitale ne fac să ne uităm la aceste pagini, nu înseamnă că nu sunt și utilizatori reali. Dar cel puțin jumătate din utilizatorii respectivi sunt ceea ce se cheamă ‘AI audiences’, adică audiențe generate în mod artificial. Și iarăși, aceste lucruri generate în mod artificial sunt percepute de către utilizatorii reali drept un indiciu de adevăr”.
Marketing electoral versus război cognitiv
Folosind o metaforă din viața reală, Alina Bârgăoanu explică faptul că diferența dintre instrumentele clasice de marketing electoral și capacitățile ofensive folosite în războiul cognitiv în timpul proceselor electorale, ar putea fi redate precum diferențele dintre tehnicile normale de pescuit și pescuitul pe baza de explozibil.
“Ideea este că metodele care încep să fie folosite în anumite contexte electorale și cred că au fost folosite și în România și cred că aici este miza dovedirii interferenței din partea unui actor statal: faptul că s-a depășit cu mult zona de marketing electoral. Și, așa cum am spus, vorbim despre campanii foarte agresive care se desfășoară pe mai multe platforme. Vorbim despre surse de finanțare care sunt câteodată destul de inaccesibile. Adică noi ne imaginăm că în campaniile electorale sofisticate vine lumea cu sacii de bani. În acest moment modalitățile de finanțare sunt în pas cu tehnologia, adică prin criptomonede, prin tot felul de lucruri care nu sunt accesibile chiar așa la prima cercetare. Vorbim despre modalități de închiriere de like-uri, de închiriere de mulțimi digitale, modalități de generare de conținut, utilizarea Inteligenței Artificiale pentru a realiza dublajul unor producții video, despre anumite instrumente care depășesc cu mult ceea ce credem noi că se întâmplă în campanie electorală. Intuiția sau, dacă vreți, chiar suspiciunea mea, este că astfel de instrumente au fost folosite și în campania electorală din România pentru a crea această impresie de omniprezență a unui anumit candidat și aceste informații se bazează pe lucrurile care sunt publice deja”.
Cum ieșim din “cutiile neagre” create de algoritmi
Manipularea algoritmilor, atacurile cognitive, invazia algoritmică, personalizarea mesajelor și microsegmentarea audiențelor sunt noile tendinte folosite pe rețelele sociale.
Dacă vă simțiți bombardați informational, faceti un pas în spate și ieșiti din aceste așa-numite “cutii negre” în care vă așează algoritmii.
Pentru a putea redobândi libertatetea informatională, sunt necesare cateva măsuri urgente: inițierea unor campanii de alfabetizare digitală, prin explicarea diferențelor dintre consumul de televiziune și consumul de social media și prin scoaterea la suprafață a acestei infrastructuri tehnologice, dobândirea unor noi compenențe în ceea ce privește algoritmii, antrenarea gândirii critice și necesitatea informării sistematice despre folosirea rețelelor sociale, inclusiv din emisiunile posturilor publice de radio si televiziune.
VIDEO: Serviciul de noapte cu Maria Țoghină, ediția din 24/25 februarie 2025