P:
Kako robot Saudijske Arabije "Sophia" postavlja zastrašujuća nova pitanja o cyber-sigurnosti?
A:Jedna od najtoplijih novih tehnologija umjetne inteligencije je robot u veličini izrađen da izgleda i djeluje kao žena.
Ime joj je Sophia, a proizvela ga je Hanson Robotics, hongkonška tvrtka. Zašto je robot Saudijske Arabije? Jer je ova zaljevska država Sophiji dala ključno ljudsko pravo: pravo državljanstva.
Ovo donosi mnogo naslova i pokreće svakakve rasprave o tome kako brzo ide umjetna inteligencija i zašto bi nas trebalo zanimati. Jedno od glavnih pitanja je cyber-sigurnost - kako će se polje cyber-sigurnosti prilagoditi ovim vrstama novih tehnologija?
Sophia i slične tehnologije otvaraju ključne probleme kibernetičke sigurnosti koje prethodno nismo rješavali. Evo nekih stvari o kojima bi profesionalci i stručnjaci trebali razmišljati dok dovode robote koji izgledaju, govore i djeluju poput nas.
Općenito, novo životno robotsko sučelje je sofisticiranije od onoga na što smo navikli u prošlosti, a to znači niz novih pitanja koja se odnose na cyber-sigurnost. U tehnološkom svijetu ljudi govore o "tankoj površini napada", na primjer, u postavci hipervizora ili ugrađenom u sigurnost na strani poslužitelja. Robot koji hoda, koji govori, s druge strane, vrlo je gusta napadačka površina - jer su sučelja sofisticirana, hakeri i loši akteri mogu iskoristiti mnoge ranjivosti.
Jedan vrlo specifičan tip problema s kibernetičkom sigurnošću nekako je pomiješan s raznim socijalnim pitanjima - mogli biste ga nazvati "sindromom prevare", iako se ovaj termin popularno koristio za opisivanje promjenjivog rada nelegitimnih znanstvenika podataka.
Kako god da ga nazovete, problem je u tome što, budući da umjetna inteligencija oponaša određene ljude s većim stupnjevima uspjeha, postat će sve teže osigurati da nas ne podvrgavaju izrazito složene obmane zbog kojih ćemo ispitivati istinu. Već možete vidjeti primjere ljudi koji koriste potpuno nove tehnologije kako bi oponašali poznate političare kao u ovom videu Baracka Obame s komičarem Jordanom Peeleom. Problem prevare samo će se razvijati i širiti jer nam umjetna inteligencija daje nove prozore u ljudske misli i ponašanja obrnutog inženjeringa.
Također, ta će nova sučelja i mogućnosti u cjelini eskalirati već postojeću utrku oružja između sigurnosnih stručnjaka i hakera. James Maude o tome piše u članku o Xconomy-u, nazivajući AI "mačem s dvostrukim oštricama" za cybersec, i naglašavajući da je, općenito, napad jeftiniji od obrane i ukazivanja na zabrinutost zbog privatnosti i sigurnosti. Ekstrapolirajte neke od tih argumenata na AI robota i možete vidjeti kako snagom i sposobnošću dolazi do opasnosti i potrebe za disciplinom.
Još jedno veliko novo pitanje kod Sophije i mobilnih robota jest to što su oni u pokretu.
Navikli smo na tehnologije poput IBM-ovog Watsona koji rade izuzetno kognitivni rad na visokoj razini, dok ostaju sjesti u podatkovni centar ili u neku stacionarnu hardversku strukturu. Na to smo navikli - od najranijih glavnih računala do današnjih prijenosnih računala, svi smo koristili stacionarni hardver. Sada imamo mobilne telefone, ali oni su u osnovi džepna računala. Osjetljiva robotska računala nevjerojatno su različita. Oni su autonomni pokretni dijelovi koje zlonamjerne stranke mogu naoružati. Članak Reutersa koji govori o brzini rješavanja problema kibernetičke sigurnosti robota pokazuje kako se, na primjer, roboti mogu natjerati da „uspavljuju“ ili se kreću brzo i neprimjereno kako bi potencijalno nanijeli štetu.
Na kraju, Sophia i roboti poput nje pokrenuli su niz pitanja kibernetičke sigurnosti i drugih briga. Kako ćemo razlikovati zakonitu aktivnost od varljive i nelegitimne aktivnosti ako sučelje nije digitalno povezana mreža, već mobilni komad hardvera koji nas može navesti da razmišljamo kako djeluje na ljudski način? Prelazak ovog mosta zahtijevat će ogromne količine tehnološkog i etičkog rada kako bi se osiguralo da ljudi zadrže uzde i da koristimo ove vrlo moćne tehnologije za građansko dobro.