Da li bi voljeli da vještačka inteligencija umjesto vas donosi važne životne odluke?
Većina ljudi mnogo više voli algoritme za donošenje odluka o preraspodjeli resursa — ali oni vide da su rezultati odluka koje su donijeli ljudi povoljniji.
Cijan muška i magenta ženska bočna silueta postavljena leđa uz leđa, prekrivena raznim poluprovidnim – brojevima, kompjuterskim krugovima i detaljima opreme. Prekrivajući središnji apstraktni uzorak je čvrsta bela zupčanica i raspored detalja sijalice. Većina ljudi više voli vještačku inteligenciju (AI) — ne ljude — da bi donosili važne odluke o raspodjeli finansijskih resursa, uprkos tome što su srećniji kada ljudi donose takve odluke. Većina (64%) učesnika u novoj studiji objavljenoj 20. juna u časopisu Public Choice dala je prednost algoritmima u odnosu na ljude kada je u pitanju odlučivanje koliko novca zarađuju za izvršavanje niza specifičnih zadataka, piše Live Science.
Dok su igrali igru, učesnici su bili motivisani ne samo sopstvenim interesima, rekli su naučnici, već i idealima o pravičnosti. Oni su tolerisali svako odstupanje između odluke i sopstvenih interesa kada je AI donela odluku, sve dok je poštovan jedan princip pravičnosti – ali kada odluka nije bila u skladu sa zajedničkim principima pravičnosti, reagovali su veoma negativno.
Uprkos tome što su preferirali donošenje odluka AI uopšte u odnosu na ljudske kolege, učesnici su generalno bili zadovoljniji odlukama koje su ljudi donosili u odnosu na AI agente. Zanimljivo, nije bilo važno koliko je sama odluka bila „pravedna” ili „ispravna”. Studija je otkrila da su ljudi otvoreni za ideju da vještačka inteligencija donosi odluke zahvaljujući uočenom nedostatku pristrasnosti, sposobnosti da se objasne odluke i visokim performansama. Bilo je irelevantno da li sistemi vještačke inteligencije zaista odražavaju te tvrdnje ili ne. Volfgang Luhan, profesor bihejvioralne ekonomije na britanskom Univerzitetu u Portsmutu, nazvao je transparentnost i odgovornost algoritama u kontekstu moralnog donošenja odluka „od vitalnog značaja”.
Pošto je pravičnost društveni konstrukt u kojem su pojedinačni koncepti ugrađeni u zajednički skup definicija, istraživači su rekli da bi ljudi zaključili da bi algoritmi — obučeni na velikim količinama „fer” podataka — bili bolji prikaz onoga što je pravedno od ljudske odluke tvorac. Eksperiment je imao za cilj da odgovori na nekoliko jednostavnih pitanja koja su naučnici smatrali kritičnim s obzirom da je društvo prepustilo više donošenja odluka vještačkoj inteligenciji. Oni su se vrtjeli oko toga da li bi oni na koje se odluka odnosila više voljeli da je donesu ljudi ili kompjuteri, i kako će se ljudi osjećati u zavisnosti od toga da li su je donijeli čovjek ili vještačka inteligencija.
„Pitanje percepcije i odnosa ljudi prema algoritamskim odlukama i vještačkoj inteligenciji uopšte je postalo važnije u posljednje vrijeme, a mnogi lideri industrije upozoravaju na opasnosti prijetnje koju AI predstavlja i poziva na regulaciju”, rekli su naučnici u studiji.
Studija se fokusirala na odluke o redistribuciji zbog njihove prevalencije u politici i ekonomiji. Za razliku od zadataka predviđanja AI, smatra se da su rezultati u ovim oblastima suštinski moralne ili etičke prirode, bez objektivnog ili činjenično „tačnog” odgovora u zavisnosti od definicije „poštenog” učesnika. Eksperiment je sproveden na mreži, gdje su ljudi i donosioci odluka AI preraspodijelili zaradu od tri zadatka između dva igrača. Bez obzira na to da li je odluka odgovarala pojedincima, istraživači su vjerovali da je saznanje da AI donosi odluku – i vjerovanje da je to bila pravedna odluka – olakšalo prihvatanje rezultata. Istraživači takođe vjeruju da ljudi smatraju da algoritmi koji se koriste u društvenim ili „ljudskim” zadacima nemaju subjektivnu procjenu – što ih čini objektivnijim i stoga vjerovatno ispravnim.
Istraživači su rekli da će njihovi nalazi biti važan dio svake rasprave o tome koliko je društvo otvoreno za donošenje odluka AI. Dodali su da ih rezultati čine optimističkim a o budućnosti, jer su odluke generisane vještačkom inteligencijom bile u skladu sa preferencijama onih na koje to utiče.
(n1)