ЕУ на корак до регулисања вештачке интелигенције

Иако је прошло тек годину дана од када је јавности представљен ChatGPT, вештачка интелигенција (ВИ) је чини се већ постала део наше свакодневице. Не морамо да замишљамо ратове аутономних дронова — „хаос” је већ ту: студенти пишу радове уз помоћ ВИ, музичари праве песме, фотографи мењају пејзаже, а индустрија забаве користи „дип фејкове” да публику увери да је неко рекао нешто што није.

Предвиђајући могуће опасности од различитих система вештачке интелигенције, Европска унија је одлучила да постави одређене границе, а Европски парламент и Савет су коначно достигли политички договор у петак, 9. децембра 2023, и стигли на корак до усвајања Актa о вештачкој интелигенцији.

Чини се да се Европска унија труди да прва свеобухватно регулише поље вештачке интелигенције, тиме постављајући стандарде и глобалну агенду. Читав пакет око Акта о вештачкој интелигенцији је и даље „на столу” и постоји шанса да буде додатно измењен након објављивања овог блога. Очекивања су висока да Европска унија постави глобалне стандарде и у овој области, као што је то урадила са заштитом приватности својих држављана.

Шта је Акт о вештачкој интелигенцији?

Акт о вештачкој интелигенцији је заправо Регулатива о утврђивању усклађених правила о вештачкој интелигенцији. Регулатива је назив за врсту „закона” у Европској унији и она је обавезујућа и примењује се у свим државама чланицама у целости.

О чему се ради у Акту о вештачкој интелигенцији?

Вештачка интелигенција је скуп технологија која се веома брзо развија и има потенцијал да промени наше животе какве знамо: од писања есеја, преко оптимизације пословних операција и ресурса, до утицаја на животну средину и климатске промене. Корак у корак са тим иде и „друга страна новчића” — ризици и негативне последице за појединце и друштво.

Управо је ризик у центру Акта о вештачкој интелигенцији изражен кроз жељу да се обезбеди поверење. Стога је идеја да се регулисањем вештачке интелигенције заштите права појединаца, као и да се заштити друштво у целини.

Приступ заснован на ризику

Акт о вештачкој интелигенцији своје поље примене дефинише кроз три степена ризика: дозвољен, контролисан и забрањен ризик.

Низак или минимални ризик је дозвољен ризик. Највећи број система вештачке интелигенције спадају у ову категорију ризика. Када помислите на низак ризик, помислите на системе вештачке интелигенције које препознају шта је спам у електронској пошти коју добијате. Важно је истаћи да Акт не предвиђа обавезе за ове системе, али да компаније/појединци свакако могу (а можда и треба) да прихвате стандарде које Акт поставља.

Висок ризик је ризик који је контролисан. Како расте ризик тако расту и обавезе за компанију, па су оне вишеструке и веома комплексне. Опсег ових технологија је дефинисан у анeксима уз Акт, а неки од примера су системи који контролишу критичну инфраструктуру (вода, струја, гас), медицински апарати, системи за одређивање приступа образовним институцијама или за регрутовање људи, или одређени системи који се користе у областима полицијског деловања, контроле граница, биометријског надзора и системима за препознавања емоција. Високоризични системи имају и обавезе попут:

      • успостављања система управљања ризиком;

      • управљање подацима;

      • обавезе у вези са транспарентношћу;

      • обавезе људског надзора.

Коначно, сваки неприхватљиви ризик је забрањен. Ово укључује технологије дубинске биометријске идентификације лица у стварном времену на јавном месту, технологије које одређују друштвени рејтинг појединца, коришћење технологија да би се утицало на свест људи.

Примена Акта о вештачкој интелигенцији

Европска унија је позната по томе да се „не шали” када се ради о казнама, а ту свакако спада и Акт о вештачкој интелигенцији. Компаније које не поштују одредбе Акта у вези са забрањеним ризиком биће кажњене од 35 милиона евра до 7% њиховог светског годишњег промента — шта год је веће. А казне за кршење других одредби варирају од 1,5% светског годишњег промета до 3% (односно 7,5 до 15 милиона евра).

За примену ће пре свега бити задужено ново тело за координацију у оквиру Комисије — Европска канцеларија за вештачку интелигенцију. Но, највећи значај за примену имају органи самих држава чланица.

Неизвесност ипак постоји када се ради о примени санкција. Наиме, систем почива на ex ante анализи (пре него што се нешто деси). Класични системи санкција почивају на формули: правило + повреда правила = санкција. Нови систем се заснива на томе да ли ће ризик да постоји или не, те уколико ће да постоји онда се санкција одмах изриче. Међутим, нико још увек нема искуства ни са оценом оваквих ризика ни са ex ante методом.

Насловна фотографија на овом блогу је генерисана помоћу напредног алата вештачке интелигенције, ChatGPT, који је развијен од стране OpenAI. Ова слика је створена на основу текстуалних описа и не представљају стварне особе или догађаје. Циљ ових фотографија је да обогате садржај блога и илуструју различите концепте и идеје у складу са темама о којима пишемо.

Previous
Previous

Јужноафричка Република против Израела пред Међународним судом правде: инфлација оптужби за геноцид или очајнички покушај остваривања правде и заштите жртава?

Next
Next

Напад на болнице током оружаних сукоба: како је уопште могуће да се питамо да ли је то легално