Zabranjene AI prakse Advokat Srbija

ZABRANJENE AI PRAKSE

Buduća pravna regulativa EU: Zabranjene AI prakse

 

Na veštačku inteligenciju i istraživanja o ovoj oblasti nailazimo još pre 70 godina. Kako su ova istraživanja napredovala i sistemi postajali napredniji, tako je i AI uspela da dođe do vrlo visokog nivoa na kome se sada nalazi. Nećemo reći do svog vrhunca, jer smo sigurni da dalji razvitak tek sledi.

A kako je ova tehnologija napredovala i postala sve savršenija, tako se počelo razmišljati o njenoj pravnoj regulaciji. Prva razmišljanja na ovu temu u EU su podelili s javnošću još 2018. Od tada do danas ideje o pravnom regulisanju AI u EU prošle su dug put.

Od pripreme Predloga regulative o AI, pa sve do završnog događaja na ovom putu, biće potrebno nekoliko godina. Kako Regulativa još uvek nije izglasana, ali postoji usaglašen tekst, očekuje se da će ovaj propis vrlo brzo biti donet a onda i krenuti njegova primena.

Ukoliko ste čitali naš prethodni blog o pravnom regulisanju AI u EU, u kome smo pojasnili najvažnije termine za razumevanje ove oblasti, onda vas je sigurno zainteresovala i naša sledeća tema.

U ovom tekstu se bavimo zabranjenim, a u sledećem visokorizičnim AI sistemima. Kako je Predlog regulative o AI prepoznao neke nove termine i pojave, tako je istovremeno prepoznao i nekoliko vrsta zabranjenih AI sistema. O njima ćemo više u nastavku.

 

Regulativa o AI i vrste zabranjenih sistema veštačke inteligencije

 

U AI Regulativi je primenjen princip ocenjivanja određenog sistema, koji koristi veštačku inteligenciju, baziran na riziku. Na osnovu ovog principa, AI sistemi se klasifikuju u pet kategorija:

  1. Zabranjeni AI sistemi,
  2. Visokorizični AI sistemi,
  3. AI sistemi sa niskim rizikom,
  4. AI sistemi sa minimalnim rizikom,
  5. AI sistemi opšte svrhe.

Kako se rizik povećava, tako se i mere koje treba da budu preduzete pooštravaju. Najveći stepen rizika povlači potpunu zabranu AI sistema. Dok se kod manje rizičnih AI sistema fokus stavlja na transparentnost i obavezu da se ukaže korisniku na činjenicu da ima interakciju sa veštačkom inteligencijom a ne sa čovekom.

Pored ove klasifikacije, EU regulativa za AI prepoznaje još neke nedozvoljene prakse kao potencijalno rizične i podložne zabrani. Kako bismo bolje shvatili o kakvim se praksama radi, analiziraćemo član 5 Predloga regulative o AI.

 

Četiri vrste zabranjenih AI praksi

 

Lista zabranjenih praksi odnosi se na sve AI sisteme koji su u suprotnosti sa vrednostima Unije. Ovo se posebno odnosi na kršenje osnovnih ljudskih prava. Treba napomenuti da nedozvoljene AI prakse mogu da vrše i kompanije, ali i javni organi.

Prva zabranjena praksa se odnosi na AI sisteme koji koriste sublimiranu tehnologiju daleko izvan granica ljudske savesti. To znači da se takvi sistemi koriste sa ciljem uticaja na ljudsko ponašanje (posebno kod osetljivih grupa, kao što su deca ili ljudi sa posebnim potrebama). Dalje, to može dovesti do toga da se osobi nanesu fizičke ili psihičke povrede.

Druga zabranjena praksa se tiče iskorišćavanja slabosti određene društvene grupe i njenih odraslih pojedinaca. To iskorišćavanje se odnosi na psihičke, fizičke ili starosne specifičnosti te grupe.

Korišćenjem različitih manipulativnih tehnika utiče se na njih u procesu donošenja odluka. Iako bi trebalo da imaju pravo da slobodno odluče, žele li ili ne da budu deo prikupljanja određenih podataka, oni to ne mogu upravo zbog ovakvih nedozvoljenih praksi.

Treća zabranjena praksa se odnosi na AI sisteme koje koriste organi javne vlasti. Ovi sistemi služe za klasifikovanje ili evaluaciju poverenja u određena fizička lica na osnovu njihovog ponašanja ili ličnih karakteristika. Ovakva praksa je poznata pod nazivom „social scoring“ i zasniva se na narušavanju privatnosti i korišćenju različitih podataka o ličnosti bez dozvole pojedinca.

Četvrta zabranjena praksa podrazumeva upotrebu biometričkog sistema na daljinu. Cilj upotrebe ovakvog sistema je identifikacija pojedinaca u realnom vremenu na javnim mestima radi primene određenih zakonskih propisa. Upotreba ovakvih sistema je jedino opravdana u sledećim slučajevima:

  • U slučaju potrage za žrtvom krivičnog dela ili nestalim detetom,
  • U slučaju sprečavanja krivičnog dela ili terorističkog napada,

U slučaju pronalaženja, identifikovanja, lociranja ili gonjenja osumnjičenog a u skladu sa odlukom “Framework Decision 2002/584/JHA .”  

Ali, ako se ovakvi biometrički sistemi, koji rade na daljinu i imaju cilj identifikacije pojedinca u realnom vremenu, (nadalje ćemo koristiti termin „Sistem identifikacije“) koriste ilegalno onda oni podležu zabrani iz člana 5 Predloga regulative o AI.

Čak i kada se ovi sistemi koriste radi identifikacije pojedinaca u tri specifične situacije, koje smo gore opisali, i tada postoje određenja ograničenja. Naime, navedeni Sistem identifikacije može se upotrebljavati u tim situacijama, samo ako se u obzir uzmu sledeće okolnosti:

  • Ako priroda situacije opravdava upotrebu Sistema. A to znači da u obzir treba da budu uzeti ozbiljnost situacije, mogućnost i razmera štete koja bi nastala ako se Sistem ne bi koristio,
  • Ako priroda situacije opravdava identifikaciju lica Sistemom. Treba dobro proceniti kakve posledice na prava i slobode lica može da ima identifikacija ovakvim sistemom.

 

Posledice korišćenja zabranjenih sistema AI

 

Ako se još jednom vratimo na primere zabranjenih AI praksi, i to na prvi i drugi, uočićemo da se kod njih kao posledica korišćenja ovih sistema javljaju psihičke ili fizičke povrede. Fizičke povrede su uglavnom svima jasne, ali kada su psihičke u pitanju tu ima dilema.


Psihička bol i primena člana 5 Predloga regulative o AI

 

Zato smatramo da treba preciznije definisati i objasniti psihičke povrede. Naime, u Zakonu o obligacionim odnosima psihička bol je prepoznata u vidu straha i duševne boli i kada je naneta nekome to zahteva naknadu nematerijalne štete.

Takav oblik nematerijalne štete može nastati kao posledica fizičkog bola, ali i povrede nekog prava. Pod tim podrazumevamo povredu časti i ugleda, kao i povredu privatnosti i dr.

Ako imamo u vidu ova pojašnjenja, onda možemo zaključiti da odredba Predloga regulative o AI može biti široko primenjena. Ona se, dakle, može odnositi na različita prava pojedinaca koja mogu biti povređena nedozvoljenom upotrebom sistema veštačke inteligencije.

 

Ograničenje upotrebe AI od strane javne vlasti

 

U članu 5 Predloga regulative o AI posebno se ograničava javnim vlastima upotreba nedozvoljenih sistema veštačke inteligencije. O čemu se ovde konkretno radi, objasnićemo na primeru koji je svima dobro poznat.

Ono što Predlog regulative o AI definiše kao „biometrički sistem na daljinu koji identifikuje pojedince u realnom vremenu na javnim mestima“, u široj javnosti se prepoznaje kao sistem pametnih kamera ili pametan CCTV. A šta podrazumevaju ovakvi sistemi?

To su sistemi koji omogućavaju identifikovanje pojedinaca u realnom vremenu na osnovu njegovih ili njenih fizičkih karakteristika. Snimci se zatim upoređuju sa podacima tih pojedinca koje javni organ ima u svojoj arhivi.

Detaljnije ćemo pojasniti ovo kako bi bilo još jasnije. Može se desiti da vas CCTV sistemi snime na raskrsnici ulice i prepoznaju vaše crte lica, a zatim ih uporede sa fotografijama iz baze MUP-a. Tom prilikom će vas državni organ identifikovati na osnovu fotografija koje ima u sistemu a koje su nastale prilikom izrade lične karte ili pasoša.

A sada da objasnimo šta još ovakvi sistemi mogu. Istovremeno sa ovom jedinstvenom identifikacijom, odnosno povezivanjem snimka kamere i podataka iz baze, ovi sistemi mogu da pokažu i druge podatke. Oni se odnose na to da li je lice osuđivano, kakvo je njegovo zdravstveno stanje, gde stanuje i radi.

Zaključak se sam nameće prilikom ovakve jedinstvene i momentalne identifikacije. Kao što i sami možete shvatiti, ovakva identifikacija može dovesti do ozbiljnog uticaja na prava i slobode pojedinca. Ali i do kršenja njihovih prava.

 

Korišćenje nedozvoljenih AI sistema mora biti ograničeno

 

Do sada ste sigurno i sami razumeli da veštačka inteligencija može biti vrlo koristan alat, ali i da ako padne u pogrešne ruke može biti zloupotrebljena. Upravo se iz tog razloga u članu 5 Predloga našlo najviše odredbi koje ograničavaju Sisteme identifikacije.

Takođe, u ovim odredbama su propisani posebni uslovi koji moraju biti ispunjeni da bi upotreba ovih sistema bila opravdana. Opravdanost situacije, kao i ispunjenost uslova za njihovu primenu treba da cene nadležni organi i sudovi u svakom pojedinačnom slučaju.

Na samom kraju, ukoliko su vam potrebne dodatne konsultacije o ovom i drugim pitanjima iz oblasti digitalnog prava, MNA tim Vam stoji na raspolaganju. Kontaktirajte nas i zakažite sastanak sa nama.