Potpisali ste otvoreno pismo Instituta „Future of Life“ koje je prošle sedmice predstavljeno na zasijedanju u Buenos Airesu. Tu zahtijevate da se razvoj veštačke inteligencije koncentriše na rješavanje društvenih problema, ali i upozoravate na opasnost da mašine autonomno vode ratove. Šta poručujete ovim pismom?
Bavim se mašinskim učenjem. To je važna komponenta onoga što se danas dešava na polju vještačke inteligencije. Radi se o tome da se sistemi putem podataka istreniraju da obavljaju određene zadatke ili prepoznaju stvari i lica. Sve to u principu može da se upotrebi u vojne svrhe. To je realna opasnost dobro opisana u pismu. Kada sam ga pročitao, pomislio sam: „Ovo ću potpisati, iza ovoga stojim.“ Mora biti javno poznato šta sve može vještačka inteligencija kako bi to bilo predmet diskusije, a ne samo istraživanja uskog kruga naučnika i inženjera.
Koliko smo blizu mogućnosti da robot donese odluku da ubije čovjeka?
Svako malo se pokreću debate o tome da smo navodno sasvim blizu toga da stvorimo vještačku inteligenciju koja bi bila uporediva sa ljudskom. Mislim da smo daleko od toga. Ali ograničene zadatke – koji su omogućeni ubacivanjem velike količine podataka – roboti već mogu da obave jednako dobro kao i ljudi. Recimo prepoznavanje lica: Fejsbukov isistemi to već mogu. Istom tehnikom bi se mogli riješiti i vojni izazovi.
Dakle objasnite robotu kakvu uniformu koriste neprijatelji, a onda robot puca na njih?
Trenutno je mnogo lakše naučiti robota da prepozna lice nego da se popne uz stepenice bez da se saplete! Nećemo uskoro imati robote poput Terminatora, koji trče kroz kuće. Ali mali helikopteri ili dronovi mogu lako da se kontrolišu. Oni se mogu opremiti sistemom kamera koje nešto prepoznaju, a svakako i nekakvim oružjem kako bi pucali. To je moguće imati u narednih deset godina. Vjerovatno se na tome već radi.
Prof. Bernhard Šelkopf
Može se reći da postoje već rudimentarna inteligentna oružja. To počinje sa nagaznom minom ili automatskim sistemima za paljbu povezanim sa senzorima. Ali gde počinje prava vještačka inteligencija?
Većina bi rekla da vještačku inteligenciju čine opažanje i delanje, kao i nešto zahtjevnija računska operacija između njih. Kod termostata, koji reguliše temperaturu u sobi, vjerovatno još ne bismo govorili o vještačkoj inteligenciji. Kod automatskih sistema za paljbu takođe – to jeste jednostavna vrsta robota, ali nema vještačku inteligenciju. Granice su nejasne. Interesantno je pitanje ko donosi odluku da se ubije. Kod nagazne mine odluku donosi onaj ko je pravi ili onaj ko je postavlja na određeno mesto. Taj ili ti su onda i moralno odgovorni ako se nešto dogodi.
Već danas postoje inteligentni raketni sistemi za odbranu koji reaguju na neprijateljske projektile brže nego što čovjek može shvatiti šta se dešava i stisnuti dugme. Međutim, tu se dešavaju i greške – kao kada je sa američkog broda ispaljen projektil koji je oborio iranski putnički avion, zamijenivši ga sa projektilom. Nije li onda vještačka inteligencija – pa makar i manjkava – već odavno realnost?
Da, može se reći. Primjer koji ste naveli je upečatljiv, a vjerovatno će uskoro biti još takvih primjera. To se ne odnosi samo na vođenje rata, nego i na autonomnu vožnju. Što više takvih sistema bude na ulicama, imaćemo više saobraćajnih udesa u kojima oni učestvuju. Uzmimo recimo da računar u automobilu prepozna dijete koje pretrčava ulicu: kako bi zaštitio dijete, on skreće u suprotnu traku i sudara se sa drugim automobilom. To je teška situacija: kada se dešava ljudima, navikli smo da to objasnimo time što naše odluke i reakcije nisu perfektne. Ali kada to čini automatski sistem, moraćemo da se suočimo sa time da i te naprave čine pogrešne izbore.
Zar ne bi moglo da se kaže da mašine ipak manje griješe od ljudi? Dodajmo prethodnom primjeru recimo obaranje južnokorejskog putničkog aviona iznad Rusije osamdesetih, kada je pogrešnu odluku doneo čovjek. Sa druge strane, izraelski raketni sistem „Gvozdena kupola“ spasao je mnogo ljudskih života.
Kod automobila je samo pitanje vremena kada će automatski sistemi svakako važiti za sigurnije od ljudi. Kod naoružanja će možda takođe jednom biti napredniji, bolje praviti razlike između vojnika i civila. Ali između saobraćaja i vojske postoji temeljna razlika: u vojnim pitanjima u određenim okolnostima pokušavate da nekome namerno nanesete štetu – možda da ubijete čovjeka. Prevrće mi se stomak od pomisli da se mašini prepusti takvo moralno pitanje o kojem sada odlučuje vojnik. Možda je i to stvar navike, ali za mene je tako nešto sada nezamislivo. Teško je predvidjeti kako bi se razvijalo vođenje rata ukoliko bi neke zemlje raspolagale takvim inteligentnim robotima, a druge ne. Da li se onda roboti jedne strane bore protiv ljudi druge strane? Da li onda pada prag za odluku da se uopšte krene u rat? Mislim da je to igranje sa vatrom. Ne želim da tvrdim da znam šta dolazi, ali sam se priključio upozorenju da treba razmisliti o tome.
U pismu upozoravate da ne treba voditi trku za naoružavanjem inteligentnim sistemima. Imate li neka saznanja da se radi na ovakvom oružju?
U Njemačkoj postoji distanca između civilnog i vojnog istraživanja. Većina ovdašnjih kolega vjerovatno ne bi rado uzela novac od vojske da radi na ovom polju. Mislim da su granice u Americi drugačije postavljene. Mnogo novca u istraživanje dolazi od Defence Andvanced Research Projects Agency. Tu se ne stvaraju direktno naprave za vojsku, ali potencijalno mogu da se razviju u tom pravcu. Recimo ja ne poznajem kolege istraživače koji na primjer prave bespilotnu letjelicu koja bi prepoznavala vojnike i pucala na njih. Ali je tako nešto teoretski moguće. Držim da je veoma vjerovatno da pojedini istraživački krugovi već rade na ovakvom oružju, samo se o tome ništa ne objavljuje.
Izvor i foto: dw.de