AI Mode de la Google -„Malware-ul Mintal”, amenințarea la adresa Securității Cibernetice

Lansarea recentă a „Modului AI” de către Google în România aduce cu sine nu doar probleme mai multe de Securitate Cibernetică, ci și potențiale riscuri pentru securitatea națională/europeană pe termen lung. Tehnicile de inginerie socială ne-etice pot fi acum implementate mult mai ușor, de către actori malițioși, deoarece un atacator beneficiază acum de o suprafață de atac exponențial mai mare decât în sistemele tradiționale. Trebuie doar să se gândească la o majoritate sau o minoritate socială, la istoria acesteia, la sistemul educațional prin care a trecut, la contextele politice trecute și prezente și să formuleze un singur text, poate și o frază scurtă dar cu impact major ( sau pur și simplu într-un singur text pe un forum, orice hrană, orice os, mâncare), într-o lucrare științifică mai mare, pe care AI-ul o indexează și o ia de bună, apoi o dă mai departe către utilizator final ca bun de utilizat, digerat deja.

Mulți știm, dar puțini conștientizăm ce înseamnă faptul că acești chatboți moderni, denumiți și inteligență artificială, sunt capabili să „halucineze” și să genereze informații false, prezentate cu o încredere deplină pentru că se hrănesc aiurea, neavând administratorul posibilitatea de a limita hrana lor. Deși sistemele de AI sunt antrenate să recunoască tehnici de inginerie socială etică, folosite în testarea securității, educație și cercetare, tehnicile de inginerie socială nu se limitează la phishing, vishing sau alte denumiri oferite de industria securității cibernetice. Ele reprezintă, în esență, manipularea în cea mai complexă formă, adesea făcută fără scrupule, iar cea etică este prea mult reflectată de care AI-urile acestea. Un om se poate abține de la a mânca prostii, pe când un AI bagă până îi crapă burta chiar dacă administratorul acestuia dă sigur, că este limitat în hrană, n-are cum să îi implementeze această stăvilire, pentru că el însuși a trecut printr-un proces educațional, politic, social care l-a înzestrat cu lipsuri care pot fi exploatate mai ușor de anumiți actori malițioși și a implementat, fără să vrea, AI-ului (copilului său) să mănânce ca și el. 

Înainte de „Modulul AI”, căutarea pe Google era un proces autentic de înțelegere: formulai o întrebare (momentul articulării gândului), primeai zece rezultate pe prima pagină (un exercițiu al discernământului), deschideai câteva link-uri în tabu-uri separate (acumulând perspective), citeai diagonal, comparai și sintetizai (foloseai alchimia cognitivă) și reveneai la căutare (iterația înțelegerii). Mergeai până la pagina a doua, a treia, a patra (curajul de a merge mai departe) și în final construiai un răspuns.

Dar azi am trecut de la homo quaerens (omul care caută) la homo recipiens (omul care primește). Iar acest om care primește poate fi un lucrător în securitate cibernetică, un angajat al serviciilor secrete sau un tânăr crescut în mediul digital, nu cu picioarele goale pe pământ, ci cu mașina, fără să mai simtă ploaia sau vântul (ca în codurile roșii de inundații din Bucureștiul de săptămână aceasta).

Este doar o problemă de timp până când acest factor uman va ceda tehnicilor de inginerie socială ne-etică. Nu mai trebuie să dea click pe vreun link sau să instaleze un malware pe sistemul pe care îl administrează, deja poate avea malware-ul încorporat în minte( de ceva timp) atunci când ia o decizie proastă, și care e din cauza acelui ceva ce a citit pe Google cu AI, la el acasă, stând în chiloți, în bucătărie sau pe WC. O astfel de decizie ar putea afecta nu doar o țară întreagă, ci un întreg sistem de state, precum Uniunea Europeană.

În viitor, textul va deveni muzeu!

Dacă ne raportăm istoric la textul contemporan din era digitală, ar trebui să ne amintim de vremea când cartea era o autoritate și nu oricine putea publica, doar că atunci cărțile erau puține și securitatea aceea, de a hrăni publicul cu informații care să nu pericliteze securității naționale/europene, era bună, pe când securitatea de viitor atât cea cibernetică cât și cea națională va fi într-un pericol foarte mare. Până în 1990, a citi însemna să ai răbdare, să rămâi cu textul, să te lupți cu el, să-l subliniezi, să-l rescrii. Cititorul și cartea erau în dialog. După anii ’90, dar mai exact odată cu apariția lui Google, accesul s-a democratizat în stil vestic(pentru că și înainte de 90 era tot o democrație de tip estic, așa cum și DPRK de azi tot o democrație este), însă efortul căutării a rămas. Înainte utilizatorul era încă activ, naviga, compara, judeca. Era o bibliotecă infinită și ca om încă trebuia să mergi pe culoarele ei.

Acum, inclusiv în România, AI-ul este un ORACOL. Nu mai mergi la bibliotecă, ORACOLUL vine la tine. Îți dă informație să ai, pe WC, în bucătărie, pe drumul către lucru, îți dă informația. Dar nu ne face niciun beneficiu pentru că acest ORACOL nu ne oferă cărți, ci verdictul final: fără drum, fără proces, fără transformare benefică pentru noi ca indivizi, cu acces la butoane prin care putem aduce atingere securității cibernetice și mai grav, celei naționale/europene.

Desigur cei care au gândit AI-urile acestea, chatboții, și-au închipuit că vor putea controla acest fenomen dar angajații, oamenii își iau salariile, își trăiesc viața și nu se gândesc la viitorul nostru ca umanitate, unde vom ajunge, că scăpăm de războaiele clasice și ne trezim cu altceva mai greu de controlat, dacă nu pentru generațiile viitoare chiar și imposibil de controlat. 

Marius C. Matei

Lasă un răspuns