Trutovi i bespilotnih vozila kao oružje: zašto moramo bojati hakera
Tehnologije / / December 19, 2019
Nitko ne bi zanijekati da umjetna inteligencija može staviti svoj život na nova razina. AI je u stanju riješiti mnoge probleme koji su izvan snage čovjeka.
Međutim, mnogi vjeruju da superintelligence će nas žele uništiti, kao Skynet, ili se početi provoditi eksperimente na ljudima kao GLADoS iz igre Portal. Ironija je u tome da se umjetna inteligencija može samo osoba dobra ili zla.
Istraživači s Yalea, Oxford, Cambridge, i tvrtke objavljenom OpenAI izvješće o zlostavljanju umjetne inteligencije. Ona kaže da je prava opasnost dolazi od hakera. Uz pomoć zlonamjernog koda, što može poremetiti rad automatskih sustava pod AI kontrolom.
Istraživači se boje da je tehnologija stvorena u dobroj namjeri, koristit će se za štetu. Na primjer, nadzor se može primijeniti ne samo uhvatiti teroriste, ali i da izvidi na obične građane. Istraživači su također zabrinjavajuće komercijalne trutovi koji donose hranu. Oni su jednostavno presresti i staviti nešto eksploziv.
Drugi scenarij je destruktivno korištenje AI -
bespilotnih vozila. Dovoljno je promijeniti nekoliko linija koda, a stroj će početi ignorirati sigurnosnih pravila.Znanstvenici vjeruju da je prijetnja može biti digitalni, fizički i politički.
- Umjetna inteligencija već se koristi za proučavanje ranjivosti različitih programskih kodova. U budućnosti, hakeri mogli stvoriti takav bot, koji će zaobići nikakvu zaštitu.
- Sa AI osoba može automatizirati mnoge procese: na primjer, za kontrolu roj trutovi ili skupinu vozila.
- S tehnologijama kao što su DeepFake, mogu utjecati na politički život države, širenje lažnih informacija o liderima svijeta putem Interneta robota.
Ovi zastrašujući primjeri postoje samo kao hipotezu. Autori studije ne nude potpunu odbacivanje tehnologije. Umjesto toga, oni vjeruju da vlade i velike tvrtke trebaju voditi brigu o sigurnosti, a industrija umjetna inteligencija rano djetinjstvo.
Političari trebaju učiti tehnologiju i rad zajedno sa stručnjacima na terenu, kako bi učinkovito reguliraju uspostavu i korištenje umjetne inteligencije.
Programeri, pak, treba procijeniti opasnost od visoke tehnologije, predvidjeti i spriječiti najgore posljedice tih svjetskih lidera. U izvješću se poziva na AI programere: udružiti se sa sigurnosnim stručnjacima u drugim područjima i kako bi saznali da li možete koristiti načela koja bi se osigurala sigurnost tih tehnologija za zaštitu umjetne inteligencija.
Cijeli izvještaj opisuje problem u više detalja, ali je činjenica da je AI - snažan alat. Svi sudionici trebaju naučiti nove tehnologije i pobrinite se da se ne koristi za kriminalne svrhe.