Politică

Mentorul meu, robotul social

Te afli în Piață și vrei să demonstrezi pentru o cauză nobilă. În jurul tău mii de roboți scandează, se aliniază în figuri complexe, proiectează imagini uriașe pe clădirile din apropiere. Mai mulți roboți își îndreaptă spre tine lentila lucioasă a obiectivului. S-au oprit din scandat și microfoanele lor așteaptă scandarea ta. Ești intimidat. Ai uitat pentru ce ai venit și nu reușești să articulezi nici un cuvânt. Pe monitorul robotului din față apare scris mare ”HOȚII”.

20zDISRUPTIONS-master1050

Începi să strigi bucuros de sugestie: ”HO-ȚII”, ”HO-ȚII”. Roboții din jurul tău preiau scandarea ta și o multiplică la nesfârșit. Întreaga piață se umple de propria ta voce: ”HO-ȚII”. Te simți important. Ești unul singur și totuși vocea ta se aude peste tot. După câteva ore de proteste pașnice te întorci mulțumit acasă. Și abia acolo îți amintești că ai vrut să protestezi împotriva uciderii câinilor maidanezi. Și că nu ai nici cea mai vagă idee cine a programat roboții din piață.

Parcurgând introducerea de mai sus cititorul poate gândi că autorul articolului a citit prea multe romane SF. În septembrie 2016 fundația germană Konrad Adenauer Stiftung[1] a publicat studiul ”Invazia roboților formatori de opinie” unde aflăm în detaliu despre activitatea roboților inteligenți sau așa-numiților ”Social Bots”.

Un ”Social Bot” este un program software care administrează conturi false de utilizatori în rețelele de socializare de largă circulație. Cu ajutorul programului, de pe aceste conturi false – numite în jargon tehnologic ”persona” – sunt transmise informații care se propagă într-o masă imensă de utilizatori în timp foarte scurt. Studiul fundației mai sus amintite arată că acești roboți sunt activi de ceva vreme, și-au creat vaste rețele de utilizatori, iar activitatea lor este activată dau dezactivată după nevoie.

Că roboții inteligenți ar putea fi folosiți în campaniile de marketing, nu e atât de greu de intuit. Un articol oarecare despre efectele benefice ale consumului de arahide pentru care prietenul unui prieten unui prieten a apăsat butonul ”Like” poate fi o simplă reclamă distribuită de un robot.

Mai important și mai periculos este însă domeniul politic, unde manipularea activă a opiniilor utilizatorilor și-a dovedit deja eficiența. Deși studiul admite că utilizatorii nu sunt în general influențați de un articol cu care sunt în dezacord, manipularea are loc la un nivel mult mai subtil. Distribuirea masivă a opiniilor radicale într-o dezbatere are consecințe asupra tuturor categoriilor de utilizatori. Analizele psihologice arată că persoanele moderate tind în primă fază să se retragă din discuție în timp ce persoanele care împărtășesc opiniile radicale difuzate sunt stimulate să se implice activ prin completări, like-uri, comentarii, etc. Reacțiile extreme apar și de partea cealaltă, ceea ce duce la radicalizarea dezbaterii. E ușor de înțeles în acest context, de ce persoanele moderate tind să adopte ulterior una dintre pozițiile radicale. Utilizatorii indeciși tind să se identifice cu poziția dominantă.

Ca exemplu, studiul analizează conflictul din Ucraina, și arată că metodele de influențare ale opiniei publice sunt mult mai complexe. 15.000 de conturi de Twitter au transmis zilnic în medie 60.000 de mesaje, conținutul acestora fiind îndreptat spre bărbați tineri. Ca urmare temele abordat au fost fotbalul, glumele cu tentă sexuală, download-urile ilegale de filme americane. Odată captată atenția grupului-țintă au început să fie activate mesaje cu caracter politic radical. ”Roboții uncranieni dispun între timp de un întreg arsenal de metode pentru a păcăli algoritmii clasici de recunoaștere a mesajelor automatizate. Se urmăresc reciproc, au un amestec bine proporționat de prieteni și ”urmăritori”, postează după anumite scheme orare care simulează pauzele și timpul de somn, dar astfel încât postările să fie totuși ”spontane”, pot modifica automat mesaje într-o măsură minoră încât să nu fie recunoscute ca identice cu mesajele deja transmise, și fără să modifice sensul acestora” se arată în studiul amintit.

Alt pericol, avertizează studiul amintit, constă în faptul că roboții inteligenți pot influeța rezultatele analizei trend-urilor în rețelele de socializare, unul din instrumentele des utilizate de companii, dar și de factorii politici, societăți civile, etc. Să ne imaginăm că într-o dezbare una din părți aduce 1 utilizator real, iar cealaltă parte 1 utilizator real și 1000 de copii automatizate ale acestuia. Un instrument de analiză va găsi rezultatul de 1 la 1001, chiar dacă în realitate cele două opinii ocupă fiecare 50%.

În aceste condiții orice analiză statistică în rețelele de socializare devine irelevantă. Este motivul pentru care se speculează la ora actuală că Twitter nu își găsește cumpărător[2]. Programul de mesagerie Twitter a fost scos la vânzare, dar nici unul din giganții software de la piață nu și-a arătat interesul. Asta pentru că roboții utilizați de diferite grupuri de interese s-au înmulțit pe Twitter atât de mult, încât Twitter s-a transformat într-o armată de roboți care încearcă să-și vândă produse și să-și ”modeleze” opiniile unii altora.

Utilizarea roboților sociali este foarte greu de dovedit în practică pentru că se bazează pe conturi obișnuite de utilizatori. În plus, se utilizează și forme hibride ale acestora în sensul că unele postări sunt realizate de persoane reale, dar operații ca distribuirea, comentariile, like-urile, etc. sunt automatizate. Totuși, studiul admite ca sigură utilizarea roboților inteligenți în cel puțin 4 evenimente politice de importanță majoră: recentele alegerile din Statele Unite ale Americii, referendumul Crimeei de alăturare la Federația Rusă, Brexit-ul englez și deja amintitul conflict din Ucraina.

Conștientizarea modului de acțiune al roboților inteligenți este absolut necesară utilizatorului care se străduiește să-și formeze o opinie obiectivă. Diverse proiecte au fost pornite, dintre care interesantă ni se pare inițiativa pe bazată pe voluntariat http://botswatch.de/, alcătuită dintr-un grup de jurnaliști, dezvoltatori software și strategi în tehnologia informației. Inițiatorii au analizat o serie de tweet-uri legate de evenimente politice actuale (de ex. discursul cancelarului german  Angela Merkel în plenul partidului CDU, talk-show-uri de maximă audiență, etc.) și au încercat să deosebească postările automate de cele făcute de persoane reale. Într-un interviu[3] acordat postului de radio Deutschlandfunk, coordonatoarea proiectului, Tabea Wilke vorbește, în funcție de temă, de un procent mediu de 14% tweet-uri automatizate false sau adevărate. Cifra reală este însă mult mai mare, 14% reprezentând tweet-urile care pot fi sigur încadrate la categoria ”automatizate”. Ca o regulă generală, explică doamna Wilke, utilizatorii cu peste 50 de tweet-uri pe zi pot fi considerați roboți, deoarece analiza statistică a utilizatorilor ”înrăiți” despre care se știe sigur că sunt persoane reale rar depășeste 20 de tweet-uri pe zi. Același criteriu este folosit și în analizele inițiate la Oxford University.

Eficiență maximă dovedesc roboții inteligenți în situații neclare, în cazul catastrofelor naturale, atentatelor, accidentelor, etc. Pe fondul lipsei de informații utilizatorii tind să fie foarte receptivi la mesajele automatizate, mai explică doamna Wilke.

O altă observație importantă este că pe fondul discuțiilor aprinse referitoare la știrile false care se propagă în rețelele de socializare, echipa de la botswatch a mai observat că multe tweet-uri-robot au intrat în ”adormire” în ultima perioadă. Dar asta nu înseamnă că ele nu pot fi reactivate în preajma evenimentelor politice importante.

Întorcându-ne la mica descriere cu care am început acest articol, cred că e timpul ca cititorul să se întrebe dacă opinia fermă pe care o are e rodul propriei judecăți sau al miilor de postări robotizate pe care le-a parcurs în ultimile zile.

[1] http://www.kas.de/wf/doc/kas_46486-544-1-30.pdf?161222122757

[2] http://us9.campaign-archive2.com/?u=4b27050a9b24aed1ffdb03681&id=4976505098&e=bcd2b9bd7e

[3] http://www.deutschlandfunk.de/soziale-netzwerke-wenn-offizielle-stellen-schweigen-sind.807.de.html?dram:article_id=376020

Autor: Ana-Maria Carp, economist