Cel mai important aspect în relația cu Inteligența Artificială este „filtrul critic”
Transcrierea emisiunii "Probleme la zi" difuzată la RADIO ROMÂNIA ACTUALITĂŢI pe data de 2 noiembrie 2023.
Articol de Alexandra Andon, 03 Noiembrie 2023, 16:43
RADIO ROMÂNIA ACTUALITĂŢI (2 noiembrie, ora 13:20:30) - Realizator: Alexandra Andon - Bună ziua și bun găsit tuturor! Unii le numesc riscuri, alții le văd deja drept pericole. Multă lume se întreabă ce va aduce viitorul în privința dezvoltării inteligenței artificiale. Primul summit global privind siguranța folosirii inteligenței artificiale, organizat în Anglia, pune problema în acest fel: inteligența artificială a crescut exploziv. Cum facem să folosim beneficiile și să prevenim pericolele? Este o problemă complexă la scară globală, spun organizatorii. De unde aceste îngrijorări și cum pot fi ele detaliate? Discutăm în ediția de astăzi. Îi spun bun venit în studio doamnei Manuela Catrina, director adjunct Directoratul Național de Securitate Cibernetică. Bună ziua, bun revenit la Radio României Actualităţi!
Manuela Catrina: Bună ziua dumneavoastră și ascultătorilor dumneavoastră!
Realizator: Așadar, la inițiativa Marii Britanii, a fost organizat acest summit, prim summit asupra siguranței folosirii inteligenței artificiale. S-a spus că este o problemă extrem de complexă și la scară globală, că este nevoie de siguranță, transparență și corectitudine în folosirea inteligenței artificiale. De unde vin aceste îngrijorări?
Manuela Catrina: Eu cred că și inteligența artificială, ca orice nouă tehnologie, creează, pe de-o parte, un entuziasm foarte mare în rândul unora dintre utilizatori, pe de altă parte, o teamă în rândul celor pe care nu o cunosc, în așa fel încât orice summit în care discutăm astfel de lucruri este un lucru bun. Discuțiile au început despre inteligența artificială atât la nivel european, cât și la diferite alte organisme; se discută la Uniunea Internațională a Telecomunicațiilor, se discută la UESCO, care cred că e un loc bun, pentru că acolo nu discută despre inteligența artificială doar cei care știu tehnologie, ci și cei care știu foarte bine cum arată umanitatea. Și, evident, de data asta discutăm despre inteligența artificială, probabil generată discuția și de faptul că în ultimul an am asistat la o creștere, să spunem, explozivă sau exponențială a inteligenței artificiale la Bletchley Park, la Londra, sau, în sfârşit, în Marea Britanie, locul în care în cel de-Al Doilea Război Mondial se afla Enigma, adică și locul în care se întâmplă acest summit este un loc simbolic.
Realizator: Este, să detaliem puțin pentru ascultătorii noștri, un centru emblematic, un centru simbol. Acolo a fost centrul de criptanaliză al Regatului Unit în timpul celui de-Al Doilea Război Mondial și acolo au fost descifrate codurile mașinilor germane Enigma și Lorenz. Era o formă de folosire a unor computere foarte, foarte la început, dar în interacțiune cu inteligența umană.
Manuela Catrina: Şi cu foarte multe doamne, ceea ce la acel moment nu se știa.
Realizator: Ceea ce.. da, asta a dezvăluit istoria ulterior, o muncă extrem de discretă, o muncă extrem de tenace și cu pericolele ei.
Manuela Catrina: Şi cu rezultatele pe care le cunoaștem, și cu finalul unui război mondial mai repede datorită unor oameni care au știut să folosească tehnologia în bine și care au câștigat războiul cu cei care foloseau tehnologia în rău. Și cred că asta este, de fapt, istoria care se tot repetă. Întotdeauna sunt oameni care folosesc tehnologia pentru a face lucruri mai puțin bune și sunt oameni care folosesc tehnologia pentru a face lucruri bune. Exemplul care poate fi, poate părea banal, este acela al unui cuțit pe care putem să îl folosim să tăiem pâine și să ne hrănim familia, sau putem să-l folosim ca o armă. E același cuțit, contează cine e la capătul cuțitului.
Realizator: Trebuie să adăugăm că la centrul de la Bletchley Park, în Al Doilea Război Mondial au fost și niște minți strălucite de matematicieni. Nu a avut neapărat unul dintre ei o soartă prea bună ulterior. Dar acum centrul face istorie din nou ca gazdă a primului summit privind siguranța folosirii inteligenței artificiale. Şi spune, de exemplu, un raport al guvernului britanic: "Inteligența artificială poate să fie și o amenințare existențială prin destabilizarea societăților, permițând fabricarea de arme sau scăpând de sub controlul oamenilor".
Manuela Catrina: Da, cred că întotdeauna durează un pic între momentul în care cei care sunt în zona tehnologică ridică un semnal de alarmă și cei din zona politică îl înțeleg. Acum poate că timpul a fost mai scurt decât în cazul altor tehnologii, dar îl avem, de asemenea, undeva, cred că în septembrie, pe António Guterres, secretarul general ONU, care ne spunea că, din punctul lui de vedere, trebuie să gestionăm inteligența artificială la fel cum am gestionat energia nucleară, printr-un sistem, să spunem, organizatoric similar. Asta era ideea lui atunci. Și, da, și energia nucleară are...
Realizator: E oare mai complicat acum? Adică felul în care este produsă inteligența artificială, cei care o produc pot mai ușor oare să scape de sub control?
Manuela Catrina: Cred că mai degrabă este... începem să înțelegem mai puțin ce se întâmplă. Sunt din ce în ce mai puțini oameni care înțeleg cu adevărat ce se întâmplă acolo. Și pentru că creștem, mai nou, noile generații doar cu Harry Potter, și nu neapărat cu Fundația lui Asimov, uneori pierdem din vedere că tehnologia în sine există doar datorită oamenilor care o generează. Și dacă nu înțelegem în amănunt ceea ce spunem unei mașini să facă, mașina aceea va face exact ceea ce îi spunem; și dacă nu închidem toate porțile ca mașina aia să facă lucruri neașteptate, probabil că o să avem efecte la care nu ne așteptăm. E un...
Realizator: Vreţi să spuneți că pot să scape ele însele de sub control, că asta e o temere...
Manela Catrina: Asta e mai degrabă o temă, un subiect de filme sience fiction. Dar, într-adevăr, în momentul în care îi spui unei mașini să meargă de la a la b, sau, nu știu, îi dai o temă şi poate, în sfârșit, e o discuție la fel de atentă despre cum se poate folosi inteligenţa artificială în zona militară. Și avem la un moment dat un alt ofițer care povestea că au învățat o dronă să atace, să distrugă o anumită zonă și era punctată... Dronă /gestionată/ de inteligenţa artificială, și era punctată în măsura în care distrugea ținta. După care și-au dat seama că nu mai punctau, adică drona şi-a dat seama că nu mai e punctată și atunci a distrus baza de la care era condusă... Că omul reușea să oprească... adică ea aștepta comanda umană ca să distrugă totuși... Atunci au pus acea limitare, ceea ce orice programator, mediu, aș spune, ar fi trebuit să o pună de la început, pentru că, când faci un sistem, te asiguri că el nu poate să se autocontroleze. Au pus această limilitare și următorul lucru pe care acel sistem de inteligență artificială l-a făcut, a distrus turnurile de comunicații care puteau să-l oprească. De aici cred că e doar un exemplu care voia să tragă un semnal de alarmă. Sunt convinsă că nu era un exemplu real, ci mai degrabă un exemplu simulat despre cum se pot face lucrurile rău. Cred însă, pe de altă parte, că, cu atenție, inteligența artificială ne poate fi un ajutor, un ajutor major în educație, în zona de date, în zona de muncă, adică poate să genereze beneficii foarte mari, cu comentariul că nu trebuie să ne fie lene. Adică folosim un instrument, dar nu trebuie să ne fie lene, atât de lene, încât să-l și controlăm atunci când îi cerem ceva.
Realizator: Întrebarea este în ce fel se pune problema de a stabili reguli și limite în ceea ce privește dezvoltarea sau folosirea inteligenței artificiale. Și l-aș cita pe o celebritate planetară, care este unul dintre corifeii dezvoltării inteligenţei artificiale, prezent la acest summit, Elon Musk, care spunea așa: "Înțelept că ar fi să sperăm la ce e mai bine, dar să ne pregătim ce e mai rău". Și ni s-a alăturat și profesorul Răzvan Rughiniş, profesor la Facultatea de Automatică și Calculatoare a Universității Politehnica București. Bună ziua!
Răzvan Rughiniş: Bună ziua!
Realizator: Mulțumesc că sunteți alături de ascultătorii Radio România Actualități. Ce trebuie reglementat și, de fapt, vă întreb și pe dvs. de unde vin principalele temeri de ajung să fie formulate chiar în felul acesta: fabricarea de arme sau scăparea de sub controlul oamenilor a inteligenței artificiale?
Răzvan Rughiniş: Ele vin dintr-un progres extraordinar de rapid al tehnologiei, de care ne bucurăm extraordinar de mult, pentru că oferă o productivitate crescută, o calitate superioară a vieții astăzi față de acum 10-20 de ani. Singura îngrijorare vine din anumite scenarii, și aici cred că abordarea Uniunii Europene bazată pe categorii de risc este cea mai oportună. Vorbim despre un proces legislativ, ce va culmina chiar zilele acestea: va trece AI Act în Parlamentul Uniunii Europene, un demers coordonat în patru ani de zile de către un europarlamentar român. Apropo de acest rol pe care România îl joacă nu doar în producția de tehnologie, dar și din stabilirea unei viziuni a tehnologiei, și care își propune să diferențieze între acele aplicații foarte, foarte valoroase ca impact și cu riscuri extraordinar de scăzute sau chiar inexistente. Și, într-adevăr, scenarii, cum spuneți și dvs., ce pot ridica niște probleme de o anvergură fără precedent. Nu este doar problema armelor automate, dar sunt scenarii care, de exemplu, automobilul autonom, pe care mulți dintre noi îl așteptăm să circule pe străzile viitorului, este, fără îndoială, tot o tehnologie profund bazată pe reglementarea inteligenței artificiale. Uniunea Europeană, de exemplu, pentru astfel de scenarii de risc ridicat, pentru că a avea un automobil care începe să ia decizii împotriva a ceea ce noi considerăm legitim și legal reprezintă un risc extraordinar de mare. Vorbim despre un bolid de câteva tone, care poate cauza foarte multe consecințe.
Realizator: Dar asta e întrebarea. Cre sunt riscurile: ca să fie dezvoltate tehnologii bazate pe inteligența artificială, tehnologii periculoase, sau ca unele dintre formele de inteligență artificială să ajungă pe mâna unor, mă rog, răufăcători?
Răzvan Rughiniș: Riscurile sunt ambele părți. Vorbim atât despre riscurile de securitate ca astfel de tehnologii să fie deturnate, dar vorbim și despre un risc în care tehnologii dezvoltate pe actori și companii legitime, în această dorință de a ajunge mai rapid în piață, evită anumite bucle de siguranță. Noi, spre exemplu, avem numeroase procese prin care inspectăm medicamentele ce ajung să fie comercializate către publicul larg. Avem aceste mecanici de control al riscurilor pentru ca unele companii farmaceutice să nu arunce în piață unele lucruri ce ar putea dăuna întregii populații. Încercăm tooată această abordare bazată pe înțelegerea riscului și reglementării nivelului de risc, în primul rând, nu a inteligenței artificiale, ci a riscurilor pe care anumite scenarii din inteligența artificială le ridică să le trecem printr-o modalitate de validare și de inspectare. Spre exemplu, discutam mai devreme despre automobilul autonom. Aceia care vor crea produse de inteligență artificială pentru automobilele autonome vor avea obligația de a păstra datele folosite în antrenarea acestor modele, de a le oferi unor autorități auditare, inclusiv ONG-uri, astfel încât vulnerabilități care pot să se afle în datele de antrenare sau în modelul de inteligență artificială folosit să poate să fie descoperite nu doar de companie, care compania întotdeauna va avea o presiune de a depăși aceste rezultate nesatisfăcătoare și a selecta doar /situațiile/ care o favorizează.
Realizator: Vă rog să rămâneți alături de noi, dacă vă permite timpul, și să interveniți în discuție. Revin și la dna. Manuela Catrina. Siguranță, transparență, corectitudine în felul în care este dezvoltată sau folosită inteligența artificială, ce reglementări pot fi imaginate?
Manuela Catrina: Cred că înainte de a spune câte altceva despre reglementări, pentru că reglementările sunt importante pentru ceea ce urmează, dar deja avem o droaie de sisteme de inteligență artificială dezvoltate care sunt dezvoltate în afara aceste reglementări, și probabil că acolo va fi foarte mult de lucru și nu sunt întotdeauna convinsă că marile companii de tehnologie au disponibilitatea să facă asta. Însă aș da un exemplu, pentru că vin din partea Directoratului Național de Securitate Cibernetică, aș da două exemple sau trei exemple din care sunt avantajele și riscurile inteligenței artificiale în zona de securitate cibernetică. Pentru noi, inteligența artificială ne ajută să identificăm mai repede atacurile, ne ajută să răspundem automat la incidente, ne ajută să detectăm mai ușor comportamente malițioase sau comportamente răuvoitoare și ne ajută să reparăm mai repede sau să gestionăm mai ușor vulnerabilitățile. Pe de altă parte, aceeași inteligență artificială poate fi folosită de către atacator pentru a dezvolta atacuri sau, în sfârșit, virusuri mai sofisticate. Să nu uităm că inteligența artificială se bazează pe datele pe care le are la dispoziție, și aceste date pot fi de la început greșite, pot fi incomplete, pot fi proaste, pot să cuprindă o droaie de lucruri greșite pe care noi le-am făcut în istorie, că sunt date istorice, inteligența artificială le consideră ca date corecte. Și unul din modalitățile în care inteligența artificială poate fi folosită în mod, să spunem, dăunător este de a otrăvi aceste date, de a-i da date... sistemul în sine este un sistem corect, dar lucrează pe date greșite și, atunci, efectul pe care îl generează este greșit. Și cred că unul dintre marile riscuri ale inteligenței artificiale este să ne bazăm doar pe inteligența artificială și să uităm că, de fapt, inteligența din inteligența artificială este doar un cuvânt de marketing uneori; nu e neapărat inteligență. Și că întotdeauna, inteligența este umană. Și să scoatem din acest context actor uman, cel care desenează aceste sisteme, cel care le utilizează și cel care în viitor le și reglementează. Suntem oameni și cred că în discuția despre inteligența artificială, și mă bucur foarte mult că l-am auzit aici pe dl. Rughiniș, care vine din zona academică, unde lucrurile sunt foarte serioase și unde pregătim experți în zona de inteligență artificială cu un background foarte solid. Este important să discutăm despre inteligența artificială cu toți oamenii, nu doar cu noi, cei care suntem pasionați de tehnologie și poate de science fiction. Cred că despre inteligența artificială vor putea să vorbească mult mai util, în anumite contexte, muzicienii, sau oamenii de artă, sau oamenii de cultură. Pentru că, până acum, un robot cântă perfect, dar nu va cânta mai... nu ne va atinge mai bine decât ne atinge un violonist cu arta lui.
Realizator: Absolut. Este frumoasă ideea și chiar astăzi va fi lansat un cântec al lui John Lennon, mixat, scris atunci, înainte de moartea lui, și mixat acum cu ajutorul inteligenței artificiale.
Manuela Catrina: Da, sunt tot felul de lucruri care se pot întâmpla și cred că trebuie să fim atenți. Inteligența artificială ne permite să desenăm personaje care nu există, să creăm modele care nu există pe rețelele sociale. Și sunt n exemple în diverse state din lume la care copiii se uită și cred că acele personaje sunt reale. Și poate ar trebui să spunem că ce e prea perfect cu siguranță nu e adevărat; și acolo ar trebui să ne atragă atenția. Inteligența artificială poate să imite voci, s-ar putea să ne trezim cu un telefon în care cineva, un om drag, sună și noi credem că el. Și poate aici ar trebui să ne dezvoltăm abilități în a simți, pe lângă voce, și alte lucruri, de a pune întrebări la care doar acea persoană poate să răspundă. Și poate uneori nu neapărat răspunsul corect contează, ci felul cum îl face. E o zonă în care sunt o droaie de oameni care folosesc asta ca și infractori pentru a obține date de pe card, date personale. Adică e o zonă în care să ne așteptăm că vom afla tot felul de lucruri care se vor întâmpla în viitor. Evident, sunt reglementări, dar asta nu înseamnă că criminalii vor ține seama de ele; vor ține seama de ele eventual companiile și statele ș.a.m.d. Deci trebuie să fim atenți atunci când cineva ne cere ceva, să ne gândim, în primul rând, dacă e nevoie să ne ceară. E ca și cum am primi un apel audio și cineva ne cere datele din buletin, spunând că, nu știu, reprezintă primăria...
Realizator: Asta se întâmplă, recent...
Manuela Catrina: Se întâmplă în mod curent și cred că e... poate pare superfluu să spunem din nou că nicio autoritate a statului nu va cere datele pe care deja le are. Bunul nostru simț trebuie să deceleze când cineva ne cere ceva, prima întrebare fiind de ce ar avea nevoie acel cineva de datele astea.
Realizator: Absolut. Pe de altă parte, deja acestea sunt forme, așa, mai primare de softuri și de inteligență artificială. Lucrurile sunt în continuă dezvoltare, în continuă evoluție și din ce înțelegeam că a fost pusă problema la acest summit, la care au participat și vicepreședinta Statelor Unite, reprezentanți ai Uniunii Europene, Chinei și încă 20 de state, au și semnat o declarație-cadru, se pune problema unui arbitru în privința dezvoltării inteligenței artificiale. Dar cât de complex și pe cine să controleze și ce să controleze acest arbitru?
Manuela Catrina: Şi cât timp va dura ca acest arbitru să existe? Pentru că trebuie să existe un consens între țările care dezvoltă inteligență artificială și ați nominalizat aici cele care sunt cele mai avansate în acest domeniu. Și este poate de subliniat că într-un context în care nu e atât... în care pacea nu e neapărat ceva ce e un dat, faptul că avem țări care discută la acest nivel despre inteligența artificială din toate zonele globului este de lăudat, de apreciat, de văzut într-un mod pozitiv. Da, vom avea un arbitru la un moment dat, vom avea reglementări, dar nimeni nu ne va reglementa propria noastră acțiune față de... interacțiunea noastră cu inteligența artificială. Și pot fi lucruri foarte simple pe care putem să le facem ca să ne păzim de, să spunem, oamenii care nu o folosesc neapărat în mod pozitiv. Și e, încă o dată, de subliniat că reglementările rezolvă o parte din lucruri. Educația rezolvă o mare parte din lucruri. Durează. Pare că este un leit-motiv pe care-l repetăm de fiecare dată. Inteligența artificială poate să fie extrem de benefică în educație, atâta timp cât nu ne bazăm doar pe inteligență artificială, ci o folosim ca să dezvoltăm inteligența naturală. Și o inteligență artificială ne poate pregăti să ne păzim și de anumite riscuri pe care inteligență artificială le aduce. După cum spunea același Elon Musk, probabil ar fi înțelept să ne fie puțin frică.
Realizator: Ni s-a alăturat dl Valentin Necoară, director de dezvoltare tehnologică la certSIGN. Bună ziua!
Valentin Necoară: Bună ziua!
Realizator: Mulțumesc că sunteți alături de noi. Vă întreb și pe dumneavoastră care sunt îngrijorările. De ce ar fi înțelept să ne fie puțin frică?
Valentin Necoară: În primul rând, vă mulțumesc pentru invitație. Îngrijorările au legătură cu ce a spus doamna înaintea mea.
Realizator: Doamna Manuela Catrina.
Valentin Necoară: Au legătură cu bunul nostru simț, cât de departe suntem dispuși să credem anumite manifestări sau, să zicem, interacțiuni cu diverse forme ale inteligenței artificiale, pentru că se poate manifesta inclusiv prin mesaje primite de la cineva pe care îl cunoști și care poate să folosească un asemenea 'engine', să îţi furnizeze un mesaj care dă bine, dă foarte bine la urechile tale. Deci trebuie să avem un filtru critic. Asta e cel mai important în relația noastră cu AI-ul. Ceva ce știm în relația cu ceilalți oameni. Adică dacă ceva e prea frumos să fie adevărat, probabil că nu e. Din perspectiva mea, același lucru e valabil și când discutăm despre AI și conținut general de acesta.
Realizator: Da, dar la acest summit privind riscurile sau siguranța folosirii inteligenței artificiale se vorbește despre urgența înțelegerii riscurilor și riscurile sunt cumva descrise ca fiind cu mult mai ample. Întrebarea, o altă întrebare este dacă cei care dezvoltă inteligența artificială devin deținători ai unei puteri foarte mari.
Valentin Necoară: Acum, geopolitica sau geostrategia nu este un domeniu la care să mă pricep. Din perspectiva tehnologică, acolo unde mă pricep, AI-ul este ceva foarte bun, deci creează conținut, creează conținut inovator, poate să coreleze mult mai multe lucruri decât să, să zicem, o echipă de oameni, în mult mai puțin timp. Adică se pot obține niște rezultate știinţifice foarte bune, deci eu văd în zona asta medicală, îi văd un uz imens și într-adevăr poate pe partea cealaltă să genereze niște conținut care să meargă în zona de manipulare. Numai că istoria ne arată că și cu AI și fără AI există populații care se vor lăsa manipulate, indiferent dacă mesajul este foarte bine construit sau nu.
Realizator: Da, vorbiți despre dezvoltarea acestor algoritmi extraordinari de analizare a datelor în domeniul medical, care... și al cercetărilor din biologie, care au înlesnit extraordinar de mult cercetarea, analiza calitativă ulterioară. E o analiză, sunt volume imense de date care au fost procesate în așa fel încât să ofere baza pentru dezvoltarea pe mai departe a teoriilor. Sintagma "inteligența artificială" a fost chiar desemnată ieri "Cuvântul anului" de către dicționarul britanic Collins. Așa cum vă spunea mai devreme la emisiunea "Prietenii de la radio" și colegul meu Dan Creța, remarca acest lucru, şi revin și la dna. Manuela Catrina, teama nu este primul robot care a învins pe campionul mondial la jocul de go. Teama este cealaltă, că se poate ajunge la o folosire cu, mă rog, scopuri distructive, nefaste?
Manuela Catrina: Sigur că da, însă eu cred că aici România pot să vină cu ceva pe masă. Apropo de o discuție nu numai tehnică, unde într-adevăr suntem în câteva zone foarte aproape de eșalonul fruntaș, dar cred că limba noastră ne ajută să facem ceva în plus, pentru că ne întrebăm: ok, inteligență artificială are inteligență, poate să aibă și cumpăt? Şi aici poate fi contribuția noastră în această discuție. De-asta începusem cu un apel de a discuta despre inteligență artificială cu oameni din toate zonele. Nu mai este o tehnologie, care este atributul oamenilor pasionați de tehnologie. Îl ascultam pe colegul de la CertSIGN și îl înțelegeam perfect, şi eu sunt fascinată de de tehnologie, pentru că îmi place tehnologia. Nouă ne place. Noi suntem, cum să zic, vedem că fiecare pas înainte ca o mică vrajă și vedem ce putem să facem cu ea. Dar, pe de altă parte, în această discuție trebuie să participe și oameni din alte zone, care poate sunt un pic mai sceptici, pentru că și altora de-a lungul istoriei le-au plăcut tehnologii care uneori s-au dovedit distructive, în așa fel încât să aducă la masa acestei discuții nu doar sclipirea de inteligență, ci și cumpătul, care să ne ajute să alegem justa măsură, să găsim reglementările de care avem nevoie, să găsim care sunt cele mai bune, să reușim să adunăm la aceeași masă, așa cum s-a întâmplat în Anglia zilele... sau cum se întâmplă în Anglia zilele astea, toți actorii importanți pentru că a dezvoltat ceva malefic în afara unui sistem care e reglementat, pentru că ție nu ți se aplică reglementările, e posibil, și atunci degeaba noi reglementăm într-o zonă, dacă în altă zonă a globului cineva nu aplică reglementarea respectivă.
Realizator: Chiar era următoarea întrebare, de ce problema este nu doar extrem de complexă, dar e la scară globală?
Manuela Catrina: Pentru că societatea e globală. Pentru că internetul e global. Pentru că acum câțiva ani, nu știu, vreo 20, trăiam cu toții cu iluzia satului global care va fi generat de internetul care ne leagă pe fiecare cu fiecare și în care aveam încredere totală unul în altul. Acest lucru s-a schimbat, atunci vorbeam de o încredere pozitivă, acum, noi, în zona de securitate cibernetică, vorbim de încredere zero sau, în unele contexte, și de încredere negativă, pentru că ne dăm seama că nu toată lumea e bună, eminamente bună. Și în al doilea rând, și drumul spre iad e pavat cu intenții bune uneori și uneori nu știm ce facem, așa încât e important să fie toată lumea la masă, important să înțelegem toți același lucru, de asta a explica termeni pare uneori obositor, dar discuțiile sunt relevante, pentru că nu fiecare înțelege din orice colț al lumii sub termenul de inteligență artificial același lucru. Reglementările la nivelul datelor sunt diferite și reveneam la ceea ce am spus înainte, datele sunt esențiale pentru cum arată inteligența artificială și pentru ce rezultate obținem. Venind din zona de programare, unul din lucrurile pe care noi le-am învățat în primele lecții se numește "garbage in, garbage out", adică dacă bagi gunoi într-un sistem, gunoi vei scoate, în așa fel încât dacă datele sunt corecte și bune și sunt echilibrate și sunt filtrate și sunt curățate de redundanțe și de lucruri care nu contează sau de lucruri care sunt greșite, probabil că rezultatele vor fi pe măsură curate și bune. Dacă datele sunt otrăvite voluntar sau involuntar, și inteligența care va da sentințe, în sfârşit, răspunsuri, nu sentințe pe baza acelor date nu va reda răspunsurile pe care ne așteptăm.
Realizator: Domnule Valentin Necoară, de ce a pus pe gânduri totuși, cât de rapidă a fost evoluția aceasta a resurselor din domeniul computerelor?
Valentin Necoară: Există mai multe aspecte. Există în momentul acesta corporații, cum e /EBIDTA/, de exemplu, care s-a focalizat pe dezvoltarea de procesoare exclusiv în acest scop, cum a fost euforia cu dezvoltarea de tehnologie pentru minat criptomonede, a apărut acum euforie pentru dezvoltarea tehnologiei pentru AI. Deci tehnologia evoluează foarte repede. Eu l percep ca foarte utilă această dezvoltare, cum a zis și colega mea de emisiune, e foarte important ce date i se livrează acestui mecanism de generare de sentințe, să nu zicem... OK, concluzii poate, pentru că dacă are suficiente date și le procesează foarte repede și generează informații pe cont propriu, care se bazează pe niște, nu știu, influențe din acele date care nu sunt corecte, o să ajungem ca să primim niște răspunsuri foarte rapid la niște întrebări complicate și pe care, dacă nu vom fi în stare să validăm dacă sunt corecte răspunsurile alea, le vom lua ca atare și s-ar putea ca noi, ca oameni, să acționăm greșit în urma unor informații primite de la aceste AI-uri, care noi considerăm că sunt corecte.
Realizator: Şi ce poate să însemne o dezvoltare sigură a inteligenței artificiale, pentru că a fost făcut acest pas la summit-ul din Anglia, o declarație pentru o dezvoltare sigură a inteligenței artificiale?
Valentin Necoară: Asta înseamnă ca toți actorii care sunt implicați în asta să așeze la masă și să cadă de acord asupra a ce informații și modul în care aceste, să zicem, tehnologii sunt dezvoltate astfel încât să nu producă ce am zis mai devreme, să nu producă /biased/, li se spune, îmi scapă termenul în momentul ăsta...
Realizator: Greşeli, scăpări.
Valentin Necoară: Concluzii părtinitoare, concluzii părtinitoare, influențabile. Deci, practic, dacă toată lumea e de acord să meargă în direcția corectă, atunci tehnologia asta va fi sigură. Dacă există actori care vor încerca să o utilizeze în mod rău, atunci...
Realizator: ... e doar o chestiune de bună-credință de vreme ce și-au pus problema la nivel înalt că există riscuri
Manuela Catrina: Eu cred, dacă-mi dați voie, că Europa...
Valentin Necoară: Istoria ne arată că nu.
Manuela Catrina: Nu. Și mai e ceva. Eu cred că ar trebui să subliniem că Europa e cu un pas înainte acestei declarații de bună-credință, pentru că în Europa deja suntem foarte aproape să închidem tot circuitul legislativ cu o reglementare care se va aplica, care ia în considerare riscul, așa cum spunea și dl. Rughiniş înainte, şi, deci, cumva suntem mai aproape de a face o inteligență artificială etică, corectă și pentru beneficiul...
Realizator: ... de a o produce sau de felul în care o folosim?
Manuela Catrina: Din păcate, Europa... Ambele feluri. Din păcate, Europa produce mult mai puțin decât produc Statele Unite sau China.
Realizator: Este posibil ca să fie produsă într-o zonă folosită în Europa în mod corect sau în mod benefic? Adică reglementările să se aplice /.../?
Manuela Catrina: Discutăm de certificări, discutăm de astfel de lucruri, însă întotdeauna sunt... Orice reglementare poate fi ocolită. Să fim realiști în această zonă. Și de aia m-aș întoarce încă o dată în zona de educație, în zona de etică, în zona de a discuta despre inteligență artificială cu toată lumea, în primul rând cu ascultătorii dvs. care sunt convinsă că fiecare dintre ei se uită la inteligența artificială dintr-un unghi pe care noi, din zona tech, nu îl vedem.