Nepoštivanje Zakona EU o umjetnoj inteligenciji može biti skupo. Vrlo skupo. U zavisnosti od kršenja, kazne mogu doseći i do 7% godišnjeg globalnog prometa ili 35 miliona eura, što god je veće. Uredba je stupila na snagu u augustu 2024. godine i postaje u potpunosti primjenjiva u augustu 2026. godine, a ključne obaveze već stupaju na snagu tokom tog perioda.

Za mnoge organizacije, 2026. godina označava trenutak kada regulacija umjetne inteligencije prelazi sa svijesti na odgovornost. Ono što je nekada bilo nešto što se pratilo sada je nešto što odbori, regulatori i kupci očekuju da organizacije razumiju - i demonstriraju.

Izazov nije samo razumijevanje uredbe. To je razumijevanje šta ona znači u praksi. Koje organizacije su pogođene? Da li se "visokorizična umjetna inteligencija" primjenjuje na vaše sisteme? Šta bi regulator očekivao da vidi kao dokaz? I kako pretvoriti zakonske zahtjeve u nešto strukturirano i odbranjivo?

Čemu služi Zakon EU o AI

Zakon EU o umjetnoj inteligenciji uvodi pristup regulisanju umjetne inteligencije zasnovan na riziku. Što je veći potencijalni utjecaj sistema umjetne inteligencije na prava, sigurnost ili mogućnosti ljudi, to su obaveze koje su mu nametnute strožije. U svojoj suštini, Zakon dijeli upotrebu umjetne inteligencije u kategorije - od zabranjenih praksi do sistema visokog rizika i slučajeva upotrebe s nižim rizikom, uz zahtjeve za transparentnost. Također uvodi obaveze za modele umjetne inteligencije opće namjene, što odražava koliko se široko ove tehnologije sada koriste u različitim industrijama.

U praktičnom smislu, uredba čini četiri stvari:

  • zabranjuje ograničen skup praksi umjetne inteligencije,
  • nameće stroge zahtjeve za sisteme visokog rizika,
  • uvodi obaveze transparentnosti za određene upotrebe,
  • i kreira pravila za općenamjenske AI modele.

Ova struktura znači da se Zakon primjenjuje daleko izvan okvira pružatelja tehnologije. Utječe na organizacije koje razvijaju, implementiraju, integrišu, nabavljaju ili se oslanjaju na sisteme umjetne inteligencije u EU - često na načine koje u početku ne prepoznaju kao regulisane.

Zašto su mnoge organizacije već obuhvaćene

Uobičajena pretpostavka je da Zakon EU o umjetnoj inteligenciji uglavnom utiče na velike tehnološke kompanije. U stvarnosti, izloženost često dolazi od načina na koji se umjetna inteligencija koristi, a ne od onoga ko je razvija. Umjetna inteligencija je sada ugrađena u svakodnevne poslovne procese. Pojavljuje se u alatima za zapošljavanje, kreditnim odlukama, sistemima medicinske podrške, interakcijama s kupcima i internim tokovima rada. U mnogim slučajevima, organizacije već koriste umjetnu inteligenciju na načine koji spadaju u djelokrug Zakona, a da je nisu formalno priznale.

Ovo je posebno relevantno u oblastima kao što su zapošljavanje i upravljanje radnom snagom, finansijsko odlučivanje, uključujući kredite ili osiguranje, zdravstvena zaštita i dijagnostika, obrazovanje i evaluacija, javne usluge ili infrastruktura, te alati okrenuti kupcima koji se oslanjaju na generativnu umjetnu inteligenciju.

Koristan način da se preoblikuje problem jeste da se zapitamo: Gdje odluke podržane umjetnom inteligencijom već utiču na ishode za pojedince? Tu obično počinje izloženost regulatornim propisima.

Zašto je 2026. godina važna

Zakon o umjetnoj inteligenciji se provodi u fazama, ali do augusta 2026. većina odredbi će biti u potpunosti primjenjiva. Do tada se od organizacija očekuje da imaju jasno razumijevanje svog okruženja umjetne inteligencije i načina na koji se ono upravlja. To ne znači da svaki proces mora biti savršen. Ali to znači da bi organizacije trebale biti u stanju da demonstriraju:

  • vidljivost nad korištenim AI sistemima,
  • dosljedan pristup klasifikaciji,
  • definisanu odgovornost,
  • dokumentovane kontrole,
  • i sposobnost da se dostave dokazi ako je potrebno.

Čekanje da provođenje zakona postane vidljivo je rizičan pristup. Do trenutka kada se pitanja postave, očekuje se da strukturirani odgovori već postoje.

Šta "visokorizična AI" znači u praksi

Za mnoge organizacije, tu počinje neizvjesnost. Da li se neki AI sistem smatra visokorizičnim manje zavisi od same tehnologije, a više od načina na koji se koristi. Sistemi spadaju u ovu kategoriju kada utiču na odluke koje mogu materijalno uticati na živote ljudi - njihovo zaposlenje, finansijski pristup, zdravstvenu zaštitu, obrazovanje, sigurnost ili pravni položaj.

U praksi, ovo često uključuje AI koji se koristi u procesima kao što su provjera ili rangiranje kandidata za posao, procjena kreditne sposobnosti ili rizika osiguranja, podrška kliničkim ili medicinskim odlukama, evaluacija studenata ili ishoda obuke ili davanje prioriteta pristupu osnovnim uslugama. Ovo nisu nišni granični slučajevi, već osnovni operativni procesi u mnogim organizacijama. Istovremeno, ne nosi svaka AI aplikacija istu težinu. Chatbot koji odgovara na opšte upite veoma se razlikuje od sistema koji utiče na odluke o zapošljavanju ili kreditiranju. Razlika leži u uticaju.

Ono što organizacije često potcjenjuju je koliko brzo „korisna automatizacija“ postaje „regulisana podrška odlučivanju“ kada počne da oblikuje ishode u stvarnom svijetu. Zato klasifikacija mora biti konzistentna, dokumentovana i preispitana - ne neformalna procjena donesena jednom i ostavljena neosporena.

ISO 42001 Checklist PDF Download
Loading...
Besplatno preuzimanje

ISO/IEC 42001 Čeklista spremnosti

Ako počinjete procjenjivati ​​kako se umjetnom inteligencijom upravlja u vašoj organizaciji, ova kontrolna lista pruža strukturiranu početnu tačku. Pomaže vam da identificirate gdje se umjetna inteligencija koristi, procijenite svoj trenutni pristup upravljanju i shvatite šta bi moglo biti potrebno za usklađivanje sa standardom ISO/IEC 42001.

Od sistema AI do sistema upravljanja

Tamo gdje je uključena visokorizična umjetna inteligencija, fokus regulacije se pomjera. Više se ne radi samo o samom modelu. Radi se o sistemu upravljanja oko njega. Regulatore zanima da li organizacije mogu demonstrirati kontrolu. To uključuje kako se identificiraju rizici, kako se dokumentiraju odluke, kako se održava nadzor i kako bi se problemi rješavali ako nešto pođe po zlu.

To obično zahtijeva od organizacija da se pozabave područjima kao što su:

  • upravljanje rizicima i odgovornost,
  • upravljanje podacima i dokumentacija,
  • transparentnost i sljedivost,
  • ljudski nadzor,
  • praćenje i rješavanje incidenata.

Uzeti zajedno, ovo nisu izolovani zahtjevi. Oni formiraju strukturu upravljanja.

Usklađenost se u praksi manje odnosi na dokazivanje da model funkcioniše, a više na pokazivanje da organizacija oko njega ima kontrolu.

Zabranjene prakse i AI opće namjene

Zakon također definiše ograničen skup zabranjenih praksi umjetne inteligencije. Iako su uskog opsega, one nose najznačajnije kazne. Organizacije bi trebale biti u mogućnosti dokazati da su one razmotrene i isključene kao dio njihovog procesa upravljanja.

Istovremeno, umjetna inteligencija opće namjene uvodi još jedan sloj odgovornosti. Mnoge organizacije se oslanjaju na mogućnosti umjetne inteligencije ugrađene u alate trećih strana, umjesto da grade vlastite modele.

Ovo postavlja praktična pitanja o nadzoru dobavljača, transparentnosti, dokumentaciji i načinu upravljanja rizicima uzvodno i nizvodno. U praksi, upravljanje se ne može zaustaviti na nabavci. Ono se mora proširiti na to kako se umjetna inteligencija zapravo koristi u svakodnevnom poslovanju.

 

Pitanja s kojima se organizacije sada suočavaju

U svim industrijama, razgovor o umjetnoj inteligenciji se promijenio. Više je ne pokreću samo inovacije. Sve više je oblikuje odgovornost. Liderski timovi postavljaju pitanja kao što su:

  • Gdje tačno koristimo umjetnu inteligenciju?
  • Koja od ovih upotreba bi mogla biti visokorizična?
  • Ko snosi povezane rizike?
  • Koja dokumentacija postoji?
  • Možemo li objasniti naše kontrole regulatoru ili auditoru?

Ovo nisu isključivo pravna pitanja. To su pitanja upravljanja. Organizacije koje već koriste strukturirane sisteme upravljanja često imaju prednost. Navikle su definisati odgovornosti, održavati dokumentaciju i demonstrirati kontrolu. Izazov je proširiti tu istu disciplinu na umjetnu inteligenciju.

Kako okviri upravljanja podržavaju usklađenost

Zakon EU o umjetnoj inteligenciji definiše čime se organizacije trebaju pozabaviti, ali ne propisuje kako bi upravljanje trebalo biti struktuisano interno.

Ovdje pristupi sistema upravljanja postaju vrijedni. Oni pružaju način objedinjavanja odgovornosti, procesa i kontrola u nešto konzistentno i ponovljivo.

U praksi, struktuisani pristup upravljanju umjetnom inteligencijom objedinjuje jasno definisane uloge i odgovornosti, kompletan inventar sistema umjetne inteligencije i slučajeva upotrebe, te konzistentnu metodu za klasifikaciju i procjenu rizika. Također uključuje kontrole životnog ciklusa podržane dokumentiranim politikama, zajedno s mehanizmima za praćenje, eskalaciju i kontinuirano poboljšanje.

Za mnoge organizacije, ISO/IEC 42001 se pojavljuje kao praktičan okvir u ovom prostoru. Pruža struktuisan pristup upravljanju AI sistemima. Važno je jasno razlikovati:

  • Zakon EU o AI postavlja zakonske zahtjeve,
  • okviri upravljanja pomažu u njihovoj operacionalizaciji,
  • nezavisna procjena jača povjerenje u način na koji se primjenjuju.

Gdje početi

Za većinu organizacija, početna tačka nije dubinski tehnički pregled svakog modela. To je jasnoća. Praktični pristup često slijedi jednostavnu progresiju.

  • Prvo, izgradite vidljivost. Mapirajte gdje se umjetna inteligencija već koristi u cijeloj organizaciji - uključujući interne sisteme, alate trećih strana i ugrađene funkcije koje možda nisu odmah očigledne.
  • Zatim, uspostavite vlasništvo. Definišite ko je odgovoran za nadzor, procjenu rizika i dokumentaciju. Bez jasne odgovornosti, upravljanje obično ostaje neformalno.
  • Zatim, procijenite izloženost. Utvrdite gdje se mogu pojaviti pitanja visokog rizika ili zabranjene upotrebe. Ovo je rijetko isključivo tehnička vježba - zahtijeva doprinos pravnih, usklađenih, timova za upravljanje rizikom i operativnih timova.
  • Konačno, počnite formalizovati upravljanje. Uskladite politike, kontrole i procese u model koji je konzistentan i ponovljiv.

Cilj nije savršenstvo od samog početka. To je odbranjivost - sposobnost da se pokaže da se sistemi umjetne inteligencije razumiju, da se rizici procjenjuju i da se upravljanje primjenjuje na struktuisan način.

 

Šta ovo znači u praksi

Zakon EU o umjetnoj inteligenciji nije samo regulatorni razvoj. To je test organizacijske zrelosti. Organizacije koje su najbolje pripremljene za 2026. godinu neće nužno biti one s najnaprednijim mogućnostima umjetne inteligencije. To će biti one koje mogu jasno pokazati kako se tim mogućnostima upravlja.

Oni će moći objasniti:

  • šta koriste,
  • kakve rizike stvaraju,
  • kako se upravlja tim rizicima,
  • i ko je odgovoran.

Za mnoge, pitanje više nije da li upravljanje umjetnom inteligencijom treba formalizirati, već da li se to može demonstrirati s pouzdanjem. Umjesto da se kreće od nule, fokus je sve više na proširenju postojećih sistema upravljanja kako bi odražavali kako se umjetna inteligencija danas zapravo koristi - na način koji je struktuisan, transparentan i koji se može jasno dokazati kada je to potrebno.

Razgovarajte sa DQS-om

Ako želite razumjeti kako se Zakon EU o umjetnoj inteligenciji primjenjuje na vašu organizaciju i kako u praksi izgleda pristup upravljanju umjetnom inteligencijom spreman za audit, kontaktirajte svoju lokalnu kancelariju DQS-a kako biste započeli razgovor.

Javite se
Autor

Aakriti Patwari

Loading...

Relevantni članci i događaji

Možda će vas interesovati i:
Blog
Loading...

Krizna komunikacija tokom Ransomware napada: Upravljanje informacijama u vanrednim situacijama

Blog
Loading...

Tri stuba buduće sigurnosti

Blog
Loading...

DTNA Zahtjevi za TISAX® oznake od dobavljača