Umetna inteligenca namesto sodnikov

Tomaž Keresteš
30.03.2019 01:04

Že davnega leta 1897 je O. W. Holmes Jr., ameriški pravni teoretik in sodnik, zapisal, da pravo zanj predstavlja zgolj napoved o tem, kako bodo odločila sodišča.

Do knjižnice priljubljenih vsebin, ki si jih izberete s klikom na ♥ v članku, lahko dostopajo samo naročniki paketov Večer Plus in Večer Premium.
NAROČI SE
Glasovno poslušanje novic omogočamo samo naročnikom paketov Večer Plus in Večer Premium.
NAROČI SE
Poslušaj

Holmes je bil pripadnik tako imenovanega pravnega realizma, smeri, ki je želela vzpostaviti bolj realističen pogled na pravo, ki ne bi bil obremenjen z različnimi teorijami o tem, kaj pravo je, temveč bi se osredotočal na to, kako pravo dejansko deluje v praksi. In v središču tega pogleda je težnja k predvidljivosti v pravu. Ta predvidljivost je v pravu zelo pomembna vrednota, kar izpričujejo tako pravniki kot nepravniki. Za pravnike je predvidljivost v pravu del širše pravne vrednote, ki jo imenujemo pravna varnost in ki v pravu kraljuje vsaj že od začetka 19. stoletja dalje. V bistvu gre za to, da smo lahko v svojem ravnanju varni pred pravnimi sankcijami le, če lahko ustrezno predvidimo pravne posledice svojega ravnanja. In enako potrebo čutijo tudi nepravniki - želijo s čim večjo gotovostjo vedeti, kako bo pravo presojalo njihova ravnanja. Tu pa nastopi problem - najsi si pravniki (in oblast) še tako prizadevajo pravo prikazovati kot strogo racionalen proces, je pravo vse prej kot to. Gre za zapleteno prepletanje človeške racionalnosti in iracionalnosti, kar najlepše dokazujejo raziskave o tem, kako pomembno lahko na primer sodnikovo kosilo vpliva na rezultate njegovih odločevalskih procesov. In tu nastopi umetna inteligenca (UI).

Kosilo ali algoritmi?

Današnja stopnja UI pravzaprav niti ni resnična umetna inteligenca. Bolj gre za spoj zapletenih matematičnih algoritmov, izjemne procesorske moči današnjih računalnikov, velikega podatkovja (Big Data) in strojnega učenja, ki pa na omejenih področjih daje vtis sposobnosti inteligentnega in objektivnega analiziranja. In prav potreba po objektivizaciji se pogosto navaja kot eden glavnih razlogov za potrebo uvajanja UI v procese sodnega odločanja - naj odločitev ne kroji več sodnikovo kosilo, temveč stroga in predvidljiva matematična algoritimična logika. Seveda pa je to pričakovanje daleč od realnega. Danes UI še ni sposobna replicirati človeškega uma in nadomestiti človeka v procesu odločanja. Lahko pa ustvari odlične podporne sisteme, ki pravnikom pomagajo pri analizi primerov in odločanju. Ker pa algoritmi preko strojnega učenja na temelju velikega podatkovja posvojijo človeške predsodke, se logične napake človeških odločevalskih procesov zgolj zakrijejo za tančico "algoritmične objektivnosti", včasih pa se te napake še razširjajo. Znani so primeri ekspertnih algoritmov, ki jih sodišča v ZDA uporabljajo za oceno tveganja povratništva in ki na podlagi statistike to povečano tveganje prepoznavajo predvsem pri temnopoltih državljanih. S tem se predsodek o temnopoltih prebivalcih zgolj še dodatno replicira. Pri tem je problem še hujši, saj je prizadetim osebam praktično nemogoče vpogledati v (morebiti izkrivljeno) logiko takšnih ocen - tako zaradi kompleksnosti sistema kot zaradi varstva intelektualne lastnine na tovrstnih sistemih. In ko se je vrhovno sodišče države Wisconsin znašlo pred tovrstno zahtevo za vpogled v algoritem (State vs. Loomis), jo je lakonično zavrnilo, češ, saj je odločitev še vedno sprejel človeški sodnik (pa čeprav ob pomoči algoritma).

Drew Graham

Mit o učinkovitosti

Poleg objektivizacije pa lahko predvidevamo vsaj dva dodatna razloga za težnjo po uvajanju UI na področju sojenja. Prvi je psihološko breme sojenja. Ugotoviti je mogoče, da se pri pomembnih odločitvah ljudje težko soočamo z odgovornostjo za sprejete odločitve. Žal se to dogaja tudi sodnikom. Tipična indikacija takšnih težav je občasno zaznavna sodniška težnja za skrivanjem za črko zakona (češ, jaz ne bi tako razsodil, toda zakon je zakon), ki se pogosto lahko izrodi v radikalni pravniški formalizem. Algoritmi so v takšnih primerih sodnikom v veliko oporo, saj se lahko pred odgovornostjo za sprejeto odločitev skrijejo ne samo za črko zakona, temveč tudi objektiviziranimi podatki, ki jim jih ponuja UI. Če na primer osumljenega ne pripremo, ker algoritem nakazuje, da ponovitvene nevarnosti ni, bo breme odgovornosti za morebitno ponovitev kaznivega dejanja padlo (tudi) na algoritem in ne zgolj na sodnika. Drugi pomembni razlog za uvajanje UI na področju sodnega odločanja pa je težnja po povečevanju splošne in stroškovne učinkovitosti. Gre za danes prevladujočo paradigmo učinkovitosti oziroma kot bi zapisal U. Galimberti, mit o učinkovitosti, v katerega so danes mnogi pripravljeni brezpogojno verjeti. Pri tem pa pogosto spregledamo, da ko načelo učinkovitosti zasenči preostale smotre, postane učinkovitost edini odgovor na vprašanje, zakaj je določeno ravnanje upravičeno.
Tehnologija UI spada danes med tako imenovane razdiralne tehnologije, ki bodo v prihodnosti temeljito spremenile naša življenja, čeprav so učinki že danes vidni vsepovsod. Med drugim bo strahovito vplivala tudi na prihodnost pravniškega poklica. Spremenilo se bo vse - od pravnega izobraževanja do dostopnosti pravnih informacij in nasvetov, vodenja primerov, dostopa do sodišča, spletnega reševanja sporov, izogibanja sporom itd. Najmanj, kar lahko ugotovimo, je, da bo začela upadati potreba po pravniških poklicih, ki opravljajo preprosta, ponavljajoča se opravila. Na drugi strani pa UI v sedanjem stanju tehnologije nikakor ne more nadomestiti sodnika ali odvetnika pri opravljanju njunega poklica. Lahko pa pričakujemo, da bo bolj učinkovito delo sodnika in alternative sodnemu reševanju sporov, ki jih bodo ponudile tehnologije UI, vplivale na manjše povpraševanje po storitvah teh dveh poklicev. Nekateri celo opozarjajo, da je prihodnost črna, saj bodo človeške pravičnosti deležni le še bogati, preostali pa se bodo morali zadovoljiti z algoritimično pravičnostjo. Tipičen primer takšne algoritimične storitve je na primer DoNotPay bot (www.donotpay.com/parking), ki prebivalcem različnih mest po svetu pomaga v primeru prekrškov zaradi napačnega parkiranja. Seveda je kratkoročno takšna storitev v veliko korist revnejših državljanov, ki si sicer pravne pomoči ne bi mogli privoščiti. Dolgoročno pa se kaže trend razslojevanja med tistimi, ki si bodo lahko privoščili osebno podprte pravne storitve, in tistimi, ki se bodo morali zadovoljiti s takšnimi algoritmi.

Tim De Groot

Ko rešitve odpovedo

M. Köhlmeier in K. P. Liessmann sta v knjigi Kdo ti je povedal, da si nag, Adam? zapisala dve zanimivi misli, ki bi jih snovalci UI v prihodnosti morali nujno upoštevati. Prvič, ljudje bi morali svoje stvaritve vedno izdelovati nekoliko manjše, nekoliko slabše, nekoliko manj zmogljive, kot so sami. In drugič, naporne, težavne in dolgočasne dejavnosti, ki so jih morali nekoč opravljati sužnji (kasneje pa mezdni delavci, op. a.), danes namesto nas v veliki meri postorijo avtomati. Nam ljudem ostaja kot delo reševanje problemov, ki jih porajajo ti stroji. Tehnika nam sporoča, da lahko najde tehnična rešitev za vsak problem. Problema pa se zavemo šele takrat, ko te rešitve odpovedo. In to velja tudi za rešitve UI na področju pravnega odločanja.
Danes nam UI ponuja vrsto rešitev, ki lahko pripomorejo k bolj učinkovitemu in objektiviziranemu delu sodnikov. Hkrati pa nam te rešitve prinašajo vrsto problemov, ki jih bomo morali reševati v prihodnosti.
***
Dr. Tomaž Keresteš je izredni profesor na Pravni fakulteti Univerze v Mariboru, predstojnik Katedre za temeljne pravne in druge vede in prodekan Pravne fakultete Univerze v Mariboru za izobraževalno dejavnost

Ste že naročnik? Prijavite se tukaj.

Želite dostop do vseh Večerovih digitalnih vsebin?

Naročite se
Naročnino lahko kadarkoli prekinete.

Več vsebin iz spleta