EU na korak do regulisanja veštačke inteligencije

Iako je prošlo tek godinu dana od kada je javnosti predstavljen ChatGPT, veštačka inteligencija (VI) je čini se već postala deo naše svakodnevice. Ne moramo da zamišljamo ratove autonomnih dronova — „haos” je već tu: studenti pišu radove uz pomoć VI, muzičari prave pesme, fotografi menjaju pejzaže, a industrija zabave koristi „dip fejkove” da publiku uveri da je neko rekao nešto što nije.

Predviđajući moguće opasnosti od različitih sistema veštačke inteligencije, Evropska unija je odlučila da postavi određene granice, a Evropski parlament i Savet su konačno dostigli politički dogovor u petak, 9. decembra 2023, i stigli na korak do usvajanja Akta o veštačkoj inteligenciji.

Čini se da se Evropska unija trudi da prva sveobuhvatno reguliše polje veštačke inteligencije, time postavljajući standarde i globalnu agendu. Čitav paket oko Akta o veštačkoj inteligenciji je i dalje „na stolu” i postoji šansa da bude dodatno izmenjen nakon objavljivanja ovog bloga. Očekivanja su visoka da Evropska unija postavi globalne standarde i u ovoj oblasti, kao što je to uradila sa zaštitom privatnosti svojih državljana.

Šta je Akt o veštačkoj inteligenciji?

Akt o veštačkoj inteligenciji je zapravo Regulativa o utvrđivanju usklađenih pravila o veštačkoj inteligenciji. Regulativa je naziv za vrstu „zakona” u Evropskoj uniji i ona je obavezujuća i primenjuje se u svim državama članicama u celosti.

O čemu se radi u Aktu o veštačkoj inteligenciji?

Veštačka inteligencija je skup tehnologija koja se veoma brzo razvija i ima potencijal da promeni naše živote kakve znamo: od pisanja eseja, preko optimizacije poslovnih operacija i resursa, do uticaja na životnu sredinu i klimatske promene. Кorak u korak sa tim ide i „druga strana novčića” — rizici i negativne posledice za pojedince i društvo.

Upravo je rizik u centru Akta o veštačkoj inteligenciji izražen kroz želju da se obezbedi poverenje. Stoga je ideja da se regulisanjem veštačke inteligencije zaštite prava pojedinaca, kao i da se zaštiti društvo u celini.

Pristup zasnovan na riziku

Akt o veštačkoj inteligenciji svoje polje primene definiše kroz tri stepena rizika: dozvoljen, kontrolisan i zabranjen rizik.

Nizak ili minimalni rizik je dozvoljen rizik. Najveći broj sistema veštačke inteligencije spadaju u ovu kategoriju rizika. Кada pomislite na nizak rizik, pomislite na sisteme veštačke inteligencije koje prepoznaju šta je spam u elektronskoj pošti koju dobijate. Važno je istaći da Akt ne predviđa obaveze za ove sisteme, ali kompanije/pojedinci svakako mogu (a možda i treba) da prihvate standarde koje Akt postavlja.

Visoki rizik je rizik koji je kontrolisan. Кako raste rizik tako rastu i obaveze, pa su obaveze za ovu kategoriju višestruke i veoma kompleksne. Opseg ovih tehnologija je definisan u aneksima uz Akt, a neki od primera su sistemi koji kontrolišu kritičnu infrastrukturu (voda, struja, gas), medicinski aparati, sistemi za određivanje pristupa obrazovnim institucijama ili za regrutovanje ljudi, ili određeni sistemi koji se koriste u oblastima policijskog delovanja, kontrole granica, biometrijskog nadzora i sistemima za prepoznavanja emocija. Visokorizični sistemi imaju i obaveze poput:

  • uspostavljanja sistema upravljanja rizikom;

  • upravljanje podacima;

  • obaveze u vezi sa transparentnošću;

  • obaveze ljudskog nadzora.

Konačno, svaki neprihvatljivi rizik je zabranjen. Ovo uključuje tehnologije dubinske biometrijske identifikacije lica u stvarnom vremenu na javnom mestu, tehnologije koje određuju društveni rejting pojedinca, korišćenje tehnologija da bi se uticalo na svest ljudi.

Primena Akta o veštačkoj inteligenciji

Evropska unija je poznata po tome da se „ne šali” kada se radi o kaznama, a tu svakako spada i Akt o veštačkoj inteligenciji. Кompanije koje ne poštuju odredbe Akta u vezi sa zabranjenim rizikom biće kažnjene od 35 miliona evra do 7% njihovog svetskog godišnjeg promenta — šta god je veće. A kazne za kršenje drugih odredbi variraju od 1,5% svetskog godišnjeg prometa do 3% (odnosno 7,5 do 15 miliona evra).

Za primenu će pre svega biti zaduženo novo telo za koordinaciju u okviru Кomisije — Evropska kancelarija za veštačku inteligenciju. No, najveći značaj za primenu imaju organi samih država članica.

Neizvesnost ipak postoji kada se radi o primeni sankcija. Naime, sistem počiva na ex ante analizi (pre nego što se nešto desi). Кlasični sistemi sankcija počivaju na formuli: pravilo + povreda pravila = sankcija. Novi sistem se zasniva na tome da li će rizik da postoji ili ne, te ukoliko će da postoji onda se sankcija odmah izriče. Međutim, niko još uvek nema iskustva ni sa ocenom ovakvih rizika ni sa ex ante metodom.

Naslovna fotografija na ovom blogu je generisana pomoću naprednog alata veštačke inteligencije, ChatGPT, koji je razvijen od strane OpenAI. Ova slika je stvorena na osnovu tekstualnih opisa i ne predstavljaju stvarne osobe ili događaje. Cilj ovih fotografija je da obogate sadržaj bloga i ilustruju različite koncepte i ideje u skladu sa temama o kojima pišemo.

Previous
Previous

Južnoafrička Republika protiv Izraela pred Međunarodnim sudom pravde: inflacija optužbi za genocid ili očajnički pokušaj ostvarivanja pravde i zaštite žrtava?

Next
Next

Napad na bolnice tokom oružanih sukoba: kako je uopšte moguće da se pitamo da li je to legalno