Povjerenik za informiranje Ujedinjenog Kraljevstva upozorava tvrtke na ’emocionalne analize’ AI tehnologije.
Povjerenik za informiranje upozorio je tvrtke da se klone tehnologija “emocionalne analize” koje se temelje na biometriji ili će se suočiti s kaznama zbog “pseudoznanstvene” prirode tog područja.
To je prvi put da je regulator izdao opće upozorenje o neučinkovitosti nove tehnologije, rekao je Stephen Bonner, zamjenik povjerenika, ali onaj koji je opravdan štetom koja bi mogla nastati ako tvrtke donesu smislene odluke na temelju besmislenih podataka.
“Puno je ulaganja i angažmana oko biometrijskih pokušaja otkrivanja emocija”, rekao je. Takve tehnologije pokušavaju zaključiti informacije o mentalnim stanjima koristeći podatke poput sjaja nečije kože ili prolaznih “mikro izraza” na njihovim licima.
“Nažalost, čini se da ove tehnologije nisu potkrijepljene znanošću”, kazao je Bonner. “To je prilično zabrinjavajuće, jer smo svjesni da dosta organizacija koje razmatraju ove tehnologije kao moguće načine donošenja prilično važnih odluka: identificirati jesu li ljudi možda prevaranti ili su kandidati za posao vrijedni dobivanja te uloge. I čini se da nema nikakvog smisla da to funkcionira.”
Jednostavno korištenje tehnologije emocionalne analize nije problem sam po sebi, rekao je Bonner – ali tretiranje kao bilo čega više od zabave jest. “Postoji mnogo namjena koje su fine, blage rubne slučajeve … ako imate zabavu za Noć vještica i želite izmjeriti tko se najviše boji na zabavi, ovo je zabavna zanimljiva tehnologija. To je skup generator slučajnih brojeva, ali to još uvijek može biti zabavno.
“Ali ako ovo koristite za donošenje važnih odluka o ljudima – da odlučite imaju li pravo na priliku, ili neku vrstu koristi, ili da odaberete tko će dobiti razinu štete ili istrage, bilo koji od tih mehanizama … Pažljivo ćemo paziti na organizacije koje to rade. Ono što ovdje prozivamo mnogo je temeljnije od pitanja zaštite podataka. Činjenica da bi oni također mogli prekršiti ljudska prava i prekršiti naše zakone svakako je razlog zašto obraćamo pažnju na njih, ali oni jednostavno ne rade.
“Postoji priličan raspon načina na koje znanstvenici bliski ovome to odbacuju. Mislim da smo čuli ‘hokum’, čuli smo ‘napola pečeno’, čuli smo ‘lažnu znanost’. To je primamljiva mogućnost: kad bismo mogli vidjeti u glave drugih. Ali kada ljudi iznose izvanredne tvrdnje s malo ili nimalo dokaza, možemo skrenuti pozornost na to.”
Pokušaj razvoja “emocionalne umjetne inteligencije” jedno je od četiri pitanja koja je ICO identificirao u proučavanju budućnosti biometrijskih tehnologija. Neka su jednostavna regulatorna pitanja, a tvrtke koje razvijaju slične tehnologije pozivaju na daljnju jasnoću u pogledu pravila o zaštiti podataka.
Međutim, drugi su temeljniji: regulator je upozorio da je teško primijeniti zakon o zaštiti podataka kada bi tehnologiju poput praćenja pogleda ili prepoznavanja otisaka prstiju “kamera mogla implementirati na daljinu kako bi prikupila provjerljive podatke o osobi bez fizičkog kontakta s bilo kojim sustavom koji je potreban”. Prikupljanje suglasnosti od, recimo, svakog putnika koji prolazi kroz stanicu, bilo bi sve samo ne nemoguće.
U proljeće 2023. regulator će objaviti smjernice o tome kako upotrebljavati biometrijske tehnologije, uključujući prepoznavanje lica, otisaka prstiju i glasa. Područje je posebno osjetljivo jer su “biometrijski podaci jedinstveni za pojedinca i teško ih je ili nemoguće promijeniti ako se ikada izgube, ukradu ili neprimjereno koriste”.