(GLOBALNA ARENA) Politika in umetna inteligenca

Ena od najbolj strašljivih nevarnosti je seveda ta, da morda ne bomo vedno znali ločiti, kaj je lažno in kaj resnično

Do knjižnice priljubljenih vsebin, ki si jih izberete s klikom na ♥ v članku, lahko dostopajo samo naročniki paketov Večer Plus in Večer Premium.
NAROČI SE
Glasovno poslušanje novic omogočamo samo naročnikom paketov Večer Plus in Večer Premium.
NAROČI SE
Poslušaj
Orodja goljufom po vsem svetu pomagajo generirati lažna e-poštna sporočila, ki so videti skrb zbujajoče verodostojna. 
Reuters

V Poznanu, 325 kilometrov vzhodno od Varšave, ekipa tehnoloških raziskovalcev, inženirjev in skrbnikov otrok snuje majhno revolucijo. Uresničujejo skupni projekt, poimenovan Insension, v okviru katerega bi radi otrokom z duševnimi motnjami in drugimi oblikami invalidnosti z uporabo tehnologij prepoznavanja obrazov, ki temeljijo na umetni inteligenci (AI), omogočili komuniciranje z drugimi ljudmi in njihovo okolico, s čemer bi postali bolj povezani s svetom. To je dokaz, kaj vse zmore ta hitro razvijajoča se tehnologija.

Tisoče kilometrov stran kitajske oblasti na ulicah Pekinga že izkoriščajo AI za prepoznavanje obrazov. S to tehnologijo dnevno spremljajo kitajske državljane in nadzirajo vsak njihov korak. V bistvu gre za enako tehnologijo, ki pa je tam uporabljena za popolnoma drug namen. Ta primera osvetljujeta vsesplošni izziv AI: tehnologija sama po sebi ni niti dobra niti slaba, vse je odvisno od tega, kako jo uporabljamo. Prav ta dvojna narava AI je vplivala na oblikovanje evropskega akta o umetni inteligenci, ki je bolj osredotočen na načine uporabe AI kot na tehnologijo samo. Naš pristop temelji na preprostem načelu: bolj tvegana kot je AI, večje so dolžnosti tistih, ki jo razvijajo.

Margrethe Vestager
Reuters

AI že omogoča številne nenevarne funkcije, ki jih izvajamo vsak dan – od odklepanja telefonov do priporočanja skladb na osnovi naših preferenc. Teh načinov njene uporabe nam ni treba regulirati. Toda AI igra vedno večjo vlogo tudi v ključnih trenutkih naših življenj. Ko banka preverja podatke o nekom, da bi ugotovila, ali izpolnjuje pogoje za odobritev hipotekarnega kredita, to ni povezano samo s kreditom: gre za to, da si bo lahko ta nekdo kupil dom, da bo s tem povečal svoje premoženje in si prizadeval zagotoviti finančno varnost. Podobni so tudi primeri, ko delodajalci pri izbiri kandidatov za zaposlitev uporabljajo programsko opremo za prepoznavanje čustev ali ko zdravniki uporabljajo AI pri prepoznavanju bolezni na slikah možganov. Pri slednjem ne gre le za rutinski zdravniški pregled, ampak dobesedno za vprašanje življenja in smrti.

V takih primerih novi akt ustvarjalcem AI nalaga precejšnje obveznosti. Da lahko dajo svoje sisteme na trg, morajo izpolniti celo vrsto zahtev – od izvajanja ocene tveganja do zagotavljanja tehnične robustnosti, človeškega nadzora in kibernetske varnosti. Poleg tega akt o AI prepoveduje vsakršno uporabo, ki je v nasprotju z našimi temeljnimi vrednotami. AI na primer ni dovoljeno uporabljati za “družbeno točkovanje” (“social scoring”) ali subliminalno oglaševanje za manipuliranje z ranljivimi skupinami prebivalstva, kot so na primer otroci.

Čeprav nekateri trdijo, da ta nadzor na visoki ravni preprečuje inoviranje, v Evropi nanj gledamo drugače. Prvič, brezčasna pravila prinašajo gotovost in vlivajo zaupanje, ki ju tehnološki inovatorji potrebujejo, da lahko razvijajo nove proizvode. Toda dejstvo je, da nikoli ne bomo mogli v celoti uresničiti pozitivnega potenciala AI, če ji njeni uporabniki ne bodo zaupali. V tem primeru je zaupanje motor inoviranja, morda veliko bolj kot na mnogih drugih področjih. Kot regulatorji lahko ustvarimo pogoje za razcvet te tehnologije, če izpolnimo svojo dolžnost ter poskrbimo za varnost in zaupanje javnosti.

Nedavni razmah modelov generativne umetne inteligence (GPAI), kot je ChatGPT, je še bolj poudaril pomen tega našega pristopa. Čeprav ta orodja goljufom po vsem svetu pomagajo generirati lažna e-poštna sporočila, ki so videti skrb zbujajoče verodostojna, bi lahko te iste modele uporabili tudi za zaznavanje vsebin, ustvarjenih z AI. V samo nekaj mesecih so modeli generativne umetne inteligence dosegli nove ravni, kar se tiče priložnosti, ki jih prinaša AI, ter z njo povezanih tveganj.

Ena od najbolj strašljivih nevarnosti je seveda ta, da morda ne bomo vedno znali ločiti, kaj je lažno in kaj resnično. Tako imenovani deepfakes (globoki ponaredki), ustvarjeni z GPAI, že povzročajo škandale in polnijo naslovnice. Konec januarja so lažni pornografski posnetki svetovne pop ikone Taylor Swift na platformi X dosegli 47 milijonov ogledov, preden jih je uporabnik, ki jih je delil, končno odstranil. 

Akt o AI pomeni neposreden odziv na ta problem. Z AI ustvarjena vsebina bo morala biti ustrezno označena, da bo vsem takoj jasno, da ni resnična.
Reuters

Ni si težko predstavljati, kakšno škodo lahko taka vsebina povzroči duševnemu zdravju posameznika. In če bi to tehnologijo uporabili denimo pri volitvah, bi lahko bilo ogroženo celo prebivalstvo neke države. Akt o AI pomeni neposreden odziv na ta problem. Z AI ustvarjena vsebina bo morala biti ustrezno označena, da bo vsem takoj jasno, da ni resnična. To pomeni, da bodo morali ponudniki sisteme zasnovati na tak način, da bodo sintetični zvočni in video posnetki, besedila in slike zapisani v strojno čitljivi obliki ter zaznavni kot generirani ali manipulirani s pomočjo umetne inteligence.  

Podjetja bodo imela možnost svoje sisteme uskladiti z novo zakonodajo. Če tega ne bodo storila, bodo morala plačati globo. Ta bo znašala 35 milijonov evrov ali sedem odstotkov svetovnega letnega prometa (kar bo višje) za kršitve, povezane s prepovedanimi načini uporabe AI, 15 milijonov evrov ali tri odstotke svetovnega letnega prometa za kršitve drugih obveznosti in 7,5 milijona evrov ali 1,5 odstotka svetovnega letnega prometa za posredovanje nepravilnih informacij. Toda globe niso edina stvar. Neustreznih sistemov AI sploh ne bo dovoljeno prodajati na trgu EU. 

Evropa je sicer prva, ki se je odločila regulirati AI, toda naša prizadevanja že aktivirajo odzive drugod po svetu. Podobne predpise so začele sprejemati tudi druge države, vključno z ZDA, ki sodelujejo z Evropo pri spodbujanju uporabe zanesljivih in odgovornih tehnologij AI. Zato smo prepričani, da smo izbrali pravi pristop. Pred nekaj meseci smo denimo navdihnili voditelje držav G7, da so sprejeli prvi kodeks ravnanja za razvijalce AI. Po zaslugi teh mednarodnih varoval bodo uporabniki varni, dokler ne bodo začele veljati pravne obveznosti. 

AI ni ne dobra ne slaba stvar, toda prinesla bo dobo, v kateri bo vse veliko bolj zapleteno in nejasno. Odraz tega so tudi predpisi, ki smo jih zasnovali v Evropi. Pri tej evropski zakonodaji je bilo verjetno bolj kot pri katerikoli drugi nujno previdno iskanje ravnotežja med vplivom in odgovornostjo, med inoviranjem in zaupanjem ter med svobodo in varnostjo. 

Ste že naročnik? Prijavite se tukaj.

Želite dostop do vseh Večerovih digitalnih vsebin?

Naročite se
Naročnino lahko kadarkoli prekinete.

Več vsebin iz spleta