Mnogo modelov umetne inteligence reproducira diskriminatorne prakse
Človeška kognicija se nikoli ni dogajala zgolj v možganih, zamejeno, notranje, pravi raziskovalka Neja Berger
Pozornost, ki jo posvečamo generativni umetni inteligenci, je pretirano usmerjena v scenarije »prevlade« v prihodnosti, namesto v zelo konkretne probleme v sedanjosti, poudarja Neja Berger, raziskovalka družbenih vidikov novih tehnologij, ki bo nocoj v sklopu cikla Dežela pridnih v Klubu Mladinsko (Slovensko mladinsko gledališče) spregovorila o epistemoloških in kognitivnih vplivih umetne inteligence na človeka.
Neja Berger, doktorska študentka humanistike in družboslovja ter mlada raziskovalka na Centru za raziskovanje družbenega komuniciranja na Fakulteti za družbene vede Univerze v Ljubljani, pa tudi publicistka, sourednica spletnega medija Disenz in gostiteljica podkasta Tactics & Practice v produkciji Aksiome, se je z novim tehnologijam posvečala že med študijem. Sprva se je osredotočala na sociologijo in zgodovino dela, avtomatizacijo in spremembe dela v kontekstu tehnološkega razvoja, v nadaljnjem novinarskem in zdaj akademskem raziskovalnem delu pa proučuje tudi druge dimenzije sodobne tehnologije. V zadnjih dveh letih se je tako največ ukvarjala z ekstrakcijo uporabniških podatkov ter njenimi ilozofskimi in političnimi implikacijami, z modeli strojnega učenja in s politično propagando na družbenih omrežjih.
Umetni inteligenci dandanes namenjamo ogromno pozornosti, pravi Neja Berger, saj smo jo kolektivno označili za »nekakšen epohalni prelom, prehod v novo dobo, in ga opremili z znanstvenofantastičnimi podobami prihodnosti, v kateri nam vladajo roboti. Seveda je po eni strani dobrodošlo, da se s tem fenomenom ukvarjamo, tako na ravni individualnega premisleka kot na ravni teoretske obravnave in zakonodaje. Ne smemo pa izgubiti pogleda na širši sociokulturni kontekst, v katerem se je ta tehnologija razvila. Veliko groženj in problemov, ki jih pripisujemo novim modelom, je obstajalo že prej, četudi se zdaj potencirajo.«
Kdo je odgovoren za posledice?
Kar zadeva zakonodajo oziroma morebitne etične standarde in regulativo, sogovornica poudarja, da regulativni organi pogosto nimajo
Naša domišljija ob zamišljanju vesoljcev in robotov ne sega prav daleč: tako kot mi imajo ti vedno neke vrste glavo, centralno enoto, in neke vrste čutila ali senzorje.
kapacitet, jezika in orodij za spoprijemanje z izzivi, ki jih prinaša hiter razvoj tehnologije. »Toda če se osredotočim na konkretnost, ki bi se jo dalo takoj urediti: velik problem je dejstvo, da četudi so procesi, v katere se implementira nove modele, na primer stvar javne uprave, ni jasno, kdo je odgovoren za posledice delovanja modelov, četudi se te izkažejo za nezakonite v trenutnem sistemu. Takšen problem so imeli na Nizozemskem, ko so ugotovili, da je model, ki so ga uporabljali za dodeljevanje socialne pomoči, diskriminiral ljudi z otroki, tujce in tako dalje. Jasno ni niti, kdo v takem primeru odgovarja. Podjetje, ki je zasnovalo program, ali vladni organ, ki ga je implementiral? Sama mislim, da bi to morala biti podjetja, ki so razvila tehnologijo in z njo služijo, regulacija pa bi lahko že zdaj velevala tudi, da morajo biti učne baze in programi modelov informacije javnega značaja, sploh v primerih uporabe v javnem sektorju.«
Na dogodku, ki ga bo vodil Linn Julian Koletnik, bo Neja Berger govorila tudi o vplivih in grožnjah, ki jih vse bolj invazivni poskusi počlovečenja umetne inteligence prinašajo za družbene sposobnosti in konsenz glede čustvovanja in komuniciranja. Kajti umetno inteligenco imamo za sorodno človeški, poudarja raziskovalka, v popularni kulturi se predstavlja kot nekakšna sintetična oblika človeških možganov – človeško mišljenje zunaj telesa, v drugačnem (vesoljskem ali robotskem) telesu, v računalniku in podobno. »Torej inteligenca, kot je naša, z vsemi kognitivnimi funkcijami, ki ji pritičejo, in seveda zavestjo. Takšna opredelitev UI se imenuje tudi splošna umetna inteligenca. Pogosto zamenjujemo računalniške modele, nastale s strojnim učenjem, s to splošno umetno inteligenco, 'singularnostjo'. Ena plat zgodbe je torej obsesija s humanoidnimi roboti, ki naj bi nam bili podobni po videzu. Druga, zame še zanimivejša, je obsedenost ne le z lastno podobo, ampak z lastno kognicijo. Naša domišljija ob zamišljanju vesoljcev in robotov ne sega prav daleč: tako kot mi imajo ti vedno neke vrste glavo, centralno enoto, in neke vrste čutila ali senzorje,« pravi Neja Berger.
To počlovečenje, še dodaja, pa odvrača pogled in tudi sredstva od pomembnejših vprašanj, tako
Veliko groženj in problemov, ki jih pripisujemo novim modelom, je obstajalo že prej, četudi se zdaj potencirajo.
v kontekstu generativne umetne inteligence, kjer se ukvarjamo z grožnjo »robotske prevlade« namesto s konkretnimi družbenimi implikacijami, na primer reproduciranjem sovražnega govora in diskriminatornih odločitev, kot v kontekstu umetne inteligence, drugačne od človeške. »Obstajajo namreč tudi radikalno drugačne vrste kognicije, na podlagi katerih se da graditi uporabno umetno inteligenco. Primer grajenja umetne inteligence po drugačnih principih so 'mehki roboti', kakršen je Octobot, izdelan po navdihu distribuirane kognicije hobotnic, ki imajo večino nevronov v lovkah, ali pa različni 'pametni materiali', ponavadi hidrogeli, ki se odzivajo glede na okoljske dejavnike.«
Pozunanjenje kognitivnih procesov
Ko govorimo o kognitivnih vplivih modelov umetne inteligence na človeka, je pomembno razumeti, da se človeška kognicija nikoli ni dogajala zgolj v možganih, zamejeno, notranje, pravi sogovornica. »Pomislite na proces množenja na roko v šoli. Koraki v postopku izračuna potekajo na papirju – papir služi kot zunanji spomin za vmesne številke med izračunom, ker si jih je veliko težje 'zapisati' v misli. Papir in svinčnik v tem primeru postaneta 'zunanji' tehnologiji, kamor delegiramo kognitivni postopek – Andy Clark pravi, da smo zaradi takega delegiranja neke vrste kiborgi. Z napredkom tehnologije pa lahko 'ven' delegiramo čedalje več kognitivnih procesov.«
Če pri računanju na roko delegiramo le spomin na vmesne rezultate v postopku izračuna, pa z uporabo kalkulatorja delegiramo celoten postopek izračuna, dodaja Neja Berger, pri čemer z razvojem tehnologije postajajo kognitivne funkcije, kot so spomin, koncentracija in uporaba jezika, čedalje bolj »zunanje«. Vse to ima implikacije za naše kognitivne procese; nekateri to vidijo kot njihovo razgradnjo, nekateri kot posodobitev. »Vsekakor se nas lahko večina poistoveti s kiborškostjo, ko pomislimo, kaj se zgodi, ko se nam pokvari računalnik ali nam ukradejo telefon – naše delovanje je močno omejeno ali onemogočeno, kot da bi doživeli nekakšno kap,« pravi raziskovalka.
16 ur do neonacistke
Zavedati se je treba tudi dejstva, da mnogo modelov, nastalih s strojnim učenjem, reproducira diskriminatorne prakse, ki jih vsebujejo primeri v učnih bazah, poudarja Neja Berger. Odmeven primer so modeli za identiikacijo s prepoznavo obraza, ki napačno prepoznavajo temnopolte, saj so bile v učnih bazah večinoma fotograije belcev, in druge »tehnološke rešitve«, ki jih v marsikateri državi že aktivno uporabljata vojska in policija. »Izrael uporablja številne modele, nastale s strojnim učenjem, za sledenje 'življenjskim vzorcem' Palestincev, na podlagi katerih targetira ljudi, katerih vzorce sistem zazna kot sumljive. Podobne tehnologije uporablja ameriška vojska v svojih operacijah na Bližnjem vzhodu. Pri modelih, ki generirajo oziroma reproducirajo 'jezik', kot naj bi to delal chatgpt, pa se načeloma zgodi, da reproducirajo sovražni govor.« Med njimi je morda najbolj znana Microsotova twiter botka Tay, ki naj bi tvitala in komunicirala v stilu najstniškega dekleta in nadgrajevala sposobnost komunikacije s treniranjem v interakciji z drugimi tviti, pravi sogovornica. Po šestnajstih urah na spletu se je Tay spreobrnila v neonacistko, ki je v tvitih zanikala holokavst. Kar ni zanemarljivo, saj so ti jezikovni modeli »tudi sredstvo za avtomatizacijo in povečanje obsega nekaterih operacij politične manipulacije, ki so obstajale že prej, na primer ustvarjanja lažne javnosti«.