Da li bi nas umjetna inteligencija mogla ubiti?

Tehnologija

Pitanje je što je gore, razvoj bez regulacije ili zabrane kojima se
Foto: Freepik

Umjetna inteligencija ne mora biti razumna da bi nas sve ubila. Postoji mnogo drugih scenarija, upozorava Malcolm Murdock, inženjer strojnog učenja i autor romana "The Quantum Price"

Porastom količine nadzora i praćenja podataka ulazimo u opasan i neistražen teritorij s teško shvatljivim potencijalnim implikacijama. Stručnjaci za umjetnu inteligenciju iznijeli su za IEEE Spectrum šest najgorih scenarija, jednako zastrašujućih i pritom daleko vjerojatnijih od onih koji se prikazuju u holivudskim SF filmovima. Želimo li ih spriječiti, kažu oni, moramo se ozbiljno pozabaviti neželjenim posljedicama uvođenja umjetne inteligencije u naše živote. 

Deepfake istine

"AI sistemi već su sada sposobni generirati dezinformacije u velikim razmjerima", upozorava Andrew Lohn, viši stručni suradnik u Centru za sigurnost i nove tehnologije Sveučilišta Georgetown (CSET). "Proizvodnjom veće količine i raznovrsnosti lažnih poruka, ovi sistemi mogu prikriti njihovu pravu prirodu."

I zaista, gomilanje deepfake sadržaja - lažnih slika, videa, zvuka i teksta generiranih naprednim alatima za mašinsko učenje – može navesti donositelje odluka o nacionalnoj sigurnosti da poduzmu akciju u stvarnom svijetu na temelju lažnih informacija. I obratno; svijet o postojanju deepfake sadržaja može lidere nagnati da djeluju sa zakašnjenjem. U oba slučaja to može izazvati velike krize ili rat.

Opasna utrka

Kada je riječ o umjetnoj inteligenciji i nacionalnoj sigurnosti, brzina je cilj, ali i problem. Zemlje koje prve razviju vojne aplikacije imat će stratešku prednost, ali pod koju cijenu?

Vincent Boulanin, viši istraživač na Stockholmskom međunarodnom institutu za istraživanje mira (SIPRI), upozorava da se velike katastrofe mogu dogoditi ako velike sile krenu prečicom. Opasno je dati prednost brzini ispred sigurnosti, testiranja ili ljudskog nadzora.

Ljudi ne smiju doći u iskušenje da zbog brzine odlučivanja zapovjedne odluke i kontrolu prepuste mašinama i uklone ljudski nadzor nad modelima mašinskog učenja koje ne razumijemo u potpunosti. U takvom scenariju, automatizirano lansiranje proturaketnih obrambenih sistema, pokrenuto bez ljudske dozvole, moglo bi dovesti do nuklearnog rata.

Kraj privatnosti i slobodne volje

Svakom digitalnom akcijom proizvodimo nove podatke – e-poštu, tekstove, preuzimanja, kupnje, objave, selfije i GPS lokacije. Dopuštajući kompanijama i vladama neograničen pristup ovim podacima, predajemo im i alate za nadzor.

Uz dodatak prepoznavanja lica, biometrije, genomskih podataka i prediktivne analize s AI-om, Lohn iz CSET-a strahuje da "ulazimo u opasan i neistražen teritorij s porastom nadzora i praćenja putem podataka, ne razumijevajući potencijalne implikacije."

Moć jednom prikupljenih i analiziranih podataka zaista je ogromna. Danas sistemi s AI-om predviđaju što ćemo kupiti, kako ćemo se zabavljati i koje ćemo linkove kliknuti. A kad nas te platforme upoznaju bolje nego što poznajemo sami sebe, nećemo ni primijetiti da nam je oduzeta našu slobodnu volju i da smo podvrgnuti kontroli vanjskih sila, kaže Michael C. Horowitz, direktor Perry World Housea na Sveučilištu Pennsylvania.

Ljudska Skinnerova kutija

Korisnici društvenih mreža postali su štakori u laboratorijskim eksperimentima; živimo u ljudskim Skinnerovim kutijama, zalijepljeni za ekrane svojih pametnih telefona, prisiljeni žrtvovati više dragocjenog vremena i pažnje platformama koje profitiraju na naš račun.

"Algoritmi su optimizirani kako bi korisnike zadržali na platformi što je dulje moguće", kaže Helen Toner iz CSET-a. Nudeći nagrade u obliku lajkova, komentara i praćenja, algoritmi stvaraju kratki spoj u načinu na koji naš mozak radi.

Kako bi povećale zaradu od oglašavanja, kompanije nam odvlače pažnju od naših poslova, porodice i prijatelja, odgovornosti, pa čak i naših hobija. Da stvar bude još gora, zbog sadržaja se često osjećamo jadno i gore nego prije. Toner upozorava da "što više vremena provodimo na ovim platformama, manje vremena provodimo u potrazi za pozitivnim, produktivnim i ispunjenim životima."

Teror AI dizajna

Svaki dan sve više svog svakodnevnog života prepuštamo strojevima s AI-om. A i oni su pristrani poput ljudi koji ih osmišljavaju. Zbog toga, upozorava Lydia Kostopoulos, potpredsjednica kompanije KnowBe4, mnogi AI sistemi ne uzimaju u obzir različita iskustva i karakteristike različitih ljudi. A budući da AI rješava probleme temeljene na pristranim perspektivama i podacima, takvi sistemi proizvode razinu usklađenosti koja ne postoji u ljudskom društvu.

AI se pretvara u kafkijanskog vratara koji uskraćuje pristup korisničkoj službi, poslovima, zdravstvenoj skrbi i još mnogo čemu ljudima koji se ne uklapaju u prosjeke. Prepuštanje odluka umjetnoj inteligenciji, unatoč dobrim namjerama, na kraju dodatno sputava ljude umjesto da ih oslobađa svakodnevnih briga. To pak može izazvati najgore rasističke i seksističke prakse i duboko pogrešne i pristrane ishode izricanja kazni.

Pretjeran strah od napretka

Umjetna inteligencija pokreće se skupovima podataka, naprednim statističkim modelima i prediktivnim algoritmima pa je proces izrade strojne inteligencije u konačnici usredotočen na matematiku. 

Linearna algebra može učiniti ludo moćne stvari ako nismo oprezni, kaže Murdock. Ali što ako se ljudi toliko boje umjetne inteligencije da je vlade reguliraju na načine koji čovječanstvu oduzimaju mnoge njene prednosti? 

Pitanje je što je gore, razvoj bez regulacije ili zabrane kojima se situacija želi pošto što kontrolirati. Strah od silne moći ove ogromne tehnologije mogao bi nas spriječiti da je iskoristimo za stvarno dobro koje može učiniti u svijetu, slažu se eksperti. (Izvor bug,hr)

Pročitajte više: Umjetna inteligencija predviđa vjerovatnost preživljavanja Covida-19

Pratite nas na Facebook akter.ba

Pratite nas na našim stranicama na

Vezane vijesti

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)