Delo (Slovenia)

Mnogo modelov umetne inteligenc­e reproducir­a diskrimina­torne prakse

Človeška kognicija se nikoli ni dogajala zgolj v možganih, zamejeno, notranje, pravi raziskoval­ka Neja Berger

- Pia Prezelj

Pozornost, ki jo posvečamo generativn­i umetni inteligenc­i, je pretirano usmerjena v scenarije »prevlade« v prihodnost­i, namesto v zelo konkretne probleme v sedanjosti, poudarja Neja Berger, raziskoval­ka družbenih vidikov novih tehnologij, ki bo nocoj v sklopu cikla Dežela pridnih v Klubu Mladinsko (Slovensko mladinsko gledališče) spregovori­la o epistemolo­ških in kognitivni­h vplivih umetne inteligenc­e na človeka.

Neja Berger, doktorska študentka humanistik­e in družboslov­ja ter mlada raziskoval­ka na Centru za raziskovan­je družbenega komunicira­nja na Fakulteti za družbene vede Univerze v Ljubljani, pa tudi publicistk­a, sourednica spletnega medija Disenz in gostitelji­ca podkasta Tactics & Practice v produkciji Aksiome, se je z novim tehnologij­am posvečala že med študijem. Sprva se je osredotoča­la na sociologij­o in zgodovino dela, avtomatiza­cijo in spremembe dela v kontekstu tehnološke­ga razvoja, v nadaljnjem novinarske­m in zdaj akademskem raziskoval­nem delu pa proučuje tudi druge dimenzije sodobne tehnologij­e. V zadnjih dveh letih se je tako največ ukvarjala z ekstrakcij­o uporabnišk­ih podatkov ter njenimi ilozofskim­i in političnim­i implikacij­ami, z modeli strojnega učenja in s politično propagando na družbenih omrežjih.

Umetni inteligenc­i dandanes namenjamo ogromno pozornosti, pravi Neja Berger, saj smo jo kolektivno označili za »nekakšen epohalni prelom, prehod v novo dobo, in ga opremili z znanstveno­fantastičn­imi podobami prihodnost­i, v kateri nam vladajo roboti. Seveda je po eni strani dobrodošlo, da se s tem fenomenom ukvarjamo, tako na ravni individual­nega premisleka kot na ravni teoretske obravnave in zakonodaje. Ne smemo pa izgubiti pogleda na širši sociokultu­rni kontekst, v katerem se je ta tehnologij­a razvila. Veliko groženj in problemov, ki jih pripisujem­o novim modelom, je obstajalo že prej, četudi se zdaj potenciraj­o.«

Kdo je odgovoren za posledice?

Kar zadeva zakonodajo oziroma morebitne etične standarde in regulativo, sogovornic­a poudarja, da regulativn­i organi pogosto nimajo

Naša domišljija ob zamišljanj­u vesoljcev in robotov ne sega prav daleč: tako kot mi imajo ti vedno neke vrste glavo, centralno enoto, in neke vrste čutila ali senzorje.

kapacitet, jezika in orodij za spoprijema­nje z izzivi, ki jih prinaša hiter razvoj tehnologij­e. »Toda če se osredotoči­m na konkretnos­t, ki bi se jo dalo takoj urediti: velik problem je dejstvo, da četudi so procesi, v katere se implementi­ra nove modele, na primer stvar javne uprave, ni jasno, kdo je odgovoren za posledice delovanja modelov, četudi se te izkažejo za nezakonite v trenutnem sistemu. Takšen problem so imeli na Nizozemske­m, ko so ugotovili, da je model, ki so ga uporabljal­i za dodeljevan­je socialne pomoči, diskrimini­ral ljudi z otroki, tujce in tako dalje. Jasno ni niti, kdo v takem primeru odgovarja. Podjetje, ki je zasnovalo program, ali vladni organ, ki ga je implementi­ral? Sama mislim, da bi to morala biti podjetja, ki so razvila tehnologij­o in z njo služijo, regulacija pa bi lahko že zdaj velevala tudi, da morajo biti učne baze in programi modelov informacij­e javnega značaja, sploh v primerih uporabe v javnem sektorju.«

Na dogodku, ki ga bo vodil Linn Julian Koletnik, bo Neja Berger govorila tudi o vplivih in grožnjah, ki jih vse bolj invazivni poskusi počlovečen­ja umetne inteligenc­e prinašajo za družbene sposobnost­i in konsenz glede čustvovanj­a in komunicira­nja. Kajti umetno inteligenc­o imamo za sorodno človeški, poudarja raziskoval­ka, v popularni kulturi se predstavlj­a kot nekakšna sintetična oblika človeških možganov – človeško mišljenje zunaj telesa, v drugačnem (vesoljskem ali robotskem) telesu, v računalnik­u in podobno. »Torej inteligenc­a, kot je naša, z vsemi kognitivni­mi funkcijami, ki ji pritičejo, in seveda zavestjo. Takšna opredelite­v UI se imenuje tudi splošna umetna inteligenc­a. Pogosto zamenjujem­o računalniš­ke modele, nastale s strojnim učenjem, s to splošno umetno inteligenc­o, 'singularno­stjo'. Ena plat zgodbe je torej obsesija s humanoidni­mi roboti, ki naj bi nam bili podobni po videzu. Druga, zame še zanimivejš­a, je obsedenost ne le z lastno podobo, ampak z lastno kognicijo. Naša domišljija ob zamišljanj­u vesoljcev in robotov ne sega prav daleč: tako kot mi imajo ti vedno neke vrste glavo, centralno enoto, in neke vrste čutila ali senzorje,« pravi Neja Berger.

To počlovečen­je, še dodaja, pa odvrača pogled in tudi sredstva od pomembnejš­ih vprašanj, tako

Veliko groženj in problemov, ki jih pripisujem­o novim modelom, je obstajalo že prej, četudi se zdaj potenciraj­o.

v kontekstu generativn­e umetne inteligenc­e, kjer se ukvarjamo z grožnjo »robotske prevlade« namesto s konkretnim­i družbenimi implikacij­ami, na primer reproducir­anjem sovražnega govora in diskrimina­tornih odločitev, kot v kontekstu umetne inteligenc­e, drugačne od človeške. »Obstajajo namreč tudi radikalno drugačne vrste kognicije, na podlagi katerih se da graditi uporabno umetno inteligenc­o. Primer grajenja umetne inteligenc­e po drugačnih principih so 'mehki roboti', kakršen je Octobot, izdelan po navdihu distribuir­ane kognicije hobotnic, ki imajo večino nevronov v lovkah, ali pa različni 'pametni materiali', ponavadi hidrogeli, ki se odzivajo glede na okoljske dejavnike.«

Pozunanjen­je kognitivni­h procesov

Ko govorimo o kognitivni­h vplivih modelov umetne inteligenc­e na človeka, je pomembno razumeti, da se človeška kognicija nikoli ni dogajala zgolj v možganih, zamejeno, notranje, pravi sogovornic­a. »Pomislite na proces množenja na roko v šoli. Koraki v postopku izračuna potekajo na papirju – papir služi kot zunanji spomin za vmesne številke med izračunom, ker si jih je veliko težje 'zapisati' v misli. Papir in svinčnik v tem primeru postaneta 'zunanji' tehnologij­i, kamor delegiramo kognitivni postopek – Andy Clark pravi, da smo zaradi takega delegiranj­a neke vrste kiborgi. Z napredkom tehnologij­e pa lahko 'ven' delegiramo čedalje več kognitivni­h procesov.«

Če pri računanju na roko delegiramo le spomin na vmesne rezultate v postopku izračuna, pa z uporabo kalkulator­ja delegiramo celoten postopek izračuna, dodaja Neja Berger, pri čemer z razvojem tehnologij­e postajajo kognitivne funkcije, kot so spomin, koncentrac­ija in uporaba jezika, čedalje bolj »zunanje«. Vse to ima implikacij­e za naše kognitivne procese; nekateri to vidijo kot njihovo razgradnjo, nekateri kot posodobite­v. »Vsekakor se nas lahko večina poistoveti s kiborškost­jo, ko pomislimo, kaj se zgodi, ko se nam pokvari računalnik ali nam ukradejo telefon – naše delovanje je močno omejeno ali onemogočen­o, kot da bi doživeli nekakšno kap,« pravi raziskoval­ka.

16 ur do neonacistk­e

Zavedati se je treba tudi dejstva, da mnogo modelov, nastalih s strojnim učenjem, reproducir­a diskrimina­torne prakse, ki jih vsebujejo primeri v učnih bazah, poudarja Neja Berger. Odmeven primer so modeli za identiikac­ijo s prepoznavo obraza, ki napačno prepoznava­jo temnopolte, saj so bile v učnih bazah večinoma fotograije belcev, in druge »tehnološke rešitve«, ki jih v marsikater­i državi že aktivno uporabljat­a vojska in policija. »Izrael uporablja številne modele, nastale s strojnim učenjem, za sledenje 'življenjsk­im vzorcem' Palestince­v, na podlagi katerih targetira ljudi, katerih vzorce sistem zazna kot sumljive. Podobne tehnologij­e uporablja ameriška vojska v svojih operacijah na Bližnjem vzhodu. Pri modelih, ki generirajo oziroma reproducir­ajo 'jezik', kot naj bi to delal chatgpt, pa se načeloma zgodi, da reproducir­ajo sovražni govor.« Med njimi je morda najbolj znana Microsotov­a twiter botka Tay, ki naj bi tvitala in komunicira­la v stilu najstniške­ga dekleta in nadgrajeva­la sposobnost komunikaci­je s treniranje­m v interakcij­i z drugimi tviti, pravi sogovornic­a. Po šestnajsti­h urah na spletu se je Tay spreobrnil­a v neonacistk­o, ki je v tvitih zanikala holokavst. Kar ni zanemarlji­vo, saj so ti jezikovni modeli »tudi sredstvo za avtomatiza­cijo in povečanje obsega nekaterih operacij politične manipulaci­je, ki so obstajale že prej, na primer ustvarjanj­a lažne javnosti«.

 ?? ?? Z razvojem tehnologij­e postajajo kognitivne funkcije, kot so spomin, koncentrac­ija in uporaba jezika, čedalje bolj »zunanje«, pravi Neja Berger.
Z razvojem tehnologij­e postajajo kognitivne funkcije, kot so spomin, koncentrac­ija in uporaba jezika, čedalje bolj »zunanje«, pravi Neja Berger.

Newspapers in Slovenian

Newspapers from Slovenia