Niezgodność z unijną ustawą o sztucznej inteligencji może być kosztowna. Bardzo kosztowne. W zależności od naruszenia, kary mogą sięgać nawet 7% rocznego globalnego obrotu lub 35 milionów euro, w zależności od tego, która z tych kwot jest wyższa. Rozporządzenie weszło w życie w sierpniu 2024 r. i zacznie w pełni obowiązywać w sierpniu 2026 r., przy czym kluczowe obowiązki wchodzą w życie już teraz.

Dla wielu organizacji rok 2026 oznacza moment, w którym przepisy dotyczące sztucznej inteligencji przechodzą od świadomości do odpowiedzialności. To, co kiedyś było czymś do monitorowania, teraz jest czymś, co zarządy, organy regulacyjne i klienci oczekują, że organizacje zrozumieją - i zademonstrują.

Wyzwaniem nie jest samo zrozumienie regulacji. Jest nim zrozumienie, co oznaczają one w praktyce. Których organizacji dotyczy? Czy "sztuczna inteligencja wysokiego ryzyka" ma zastosowanie do Twoich systemów? Jakich dowodów oczekuje regulator? I jak przekształcić wymogi prawne w coś ustrukturyzowanego i możliwego do obrony?

Co ma na celu unijna ustawa o sztucznej inteligencji?

Unijna ustawa o sztucznej inteligencji wprowadza oparte na ryzyku podejście do regulacji sztucznej inteligencji. Im większy jest potencjalny wpływ systemu sztucznej inteligencji na prawa, bezpieczeństwo lub możliwości ludzi, tym bardziej rygorystyczne są nałożone na niego obowiązki. Zasadniczo ustawa dzieli wykorzystanie sztucznej inteligencji na kategorie - od zakazanych praktyk po systemy wysokiego ryzyka i przypadki użycia o niższym ryzyku z wymogami przejrzystości. Wprowadza również obowiązki dla modeli AI ogólnego przeznaczenia, odzwierciedlając, jak szeroko technologie te są obecnie wykorzystywane w różnych branżach.

Z praktycznego punktu widzenia rozporządzenie ma cztery cele:

  • zakazuje ograniczonego zestawu praktyk AI,
  • nakłada surowe wymogi na systemy wysokiego ryzyka,
  • wprowadza obowiązki w zakresie przejrzystości dla niektórych zastosowań,
  • i tworzy zasady dla modeli AI ogólnego przeznaczenia.

Taka struktura oznacza, że ustawa ma zastosowanie daleko poza dostawcami technologii. Ma ona wpływ na organizacje, które opracowują, wdrażają, integrują, zamawiają lub polegają na systemach sztucznej inteligencji w UE - często w sposób, którego początkowo nie uznają za regulowany.

Dlaczego wiele organizacji jest już objętych regulacjami

Powszechnym założeniem jest, że unijna ustawa o sztucznej inteligencji dotyczy głównie dużych firm technologicznych. W rzeczywistości ekspozycja często wynika ze sposobu wykorzystania sztucznej inteligencji, a nie z tego, kto ją tworzy. Sztuczna inteligencja jest obecnie osadzona w codziennych procesach biznesowych. Pojawia się w narzędziach rekrutacyjnych, decyzjach kredytowych, systemach wsparcia medycznego, interakcjach z klientami i wewnętrznych przepływach pracy. W wielu przypadkach organizacje już wykorzystują sztuczną inteligencję w sposób, który wchodzi w zakres ustawy, bez jej formalnego uznania.

Jest to szczególnie istotne w obszarach takich jak zatrudnianie i zarządzanie pracownikami, podejmowanie decyzji finansowych, w tym kredytowych lub ubezpieczeniowych, opieka zdrowotna i diagnostyka, edukacja i ewaluacja, usługi publiczne lub infrastruktura oraz narzędzia skierowane do klientów, które opierają się na generatywnej sztucznej inteligencji.

Przydatnym sposobem na przeformułowanie tej kwestii jest zadanie pytania: Gdzie decyzje wspierane przez sztuczną inteligencję już wpływają na wyniki dla osób fizycznych? Zazwyczaj właśnie tam zaczyna się ekspozycja regulacyjna.

Dlaczego rok 2026 ma znaczenie

Ustawa o sztucznej inteligencji jest wdrażana etapami, ale do sierpnia 2026 r. większość przepisów będzie w pełni obowiązywać. Oczekuje się, że do tego czasu organizacje będą miały jasne zrozumienie swojego krajobrazu AI i sposobu jego zarządzania. Nie oznacza to, że każdy proces musi być doskonały. Oznacza to jednak, że organizacje powinny być w stanie wykazać:

  • widoczność wykorzystywanych systemów AI,
  • spójne podejście do klasyfikacji,
  • zdefiniowaną odpowiedzialność,
  • udokumentowane kontrole,
  • oraz zdolność do przedstawienia dowodów w razie potrzeby.

Czekanie, aż egzekwowanie prawa stanie się widoczne, jest ryzykownym podejściem. Do czasu, gdy zadawane są pytania, oczekuje się, że ustrukturyzowane odpowiedzi już istnieją.

Co w praktyce oznacza "sztuczna inteligencja wysokiego ryzyka"?

Dla wielu organizacji to właśnie tutaj zaczyna się niepewność. To, czy system sztucznej inteligencji jest uważany za obarczony wysokim ryzykiem, zależy w mniejszym stopniu od samej technologii, a bardziej od sposobu jej wykorzystania. Systemy należą do tej kategorii, gdy wpływają na decyzje, które mogą mieć istotny wpływ na życie ludzi - ich zatrudnienie, dostęp finansowy, opiekę zdrowotną, edukację, bezpieczeństwo lub sytuację prawną.

W praktyce często obejmuje to sztuczną inteligencję wykorzystywaną w procesach takich jak sprawdzanie lub rankingowanie kandydatów do pracy, ocena zdolności kredytowej lub ryzyka ubezpieczeniowego, wspieranie decyzji klinicznych lub medycznych, ocena studentów lub wyników szkoleń lub ustalanie priorytetów dostępu do podstawowych usług. Nie są to niszowe przypadki brzegowe, ale podstawowe procesy operacyjne w wielu organizacjach. Jednocześnie nie każda aplikacja AI ma taką samą wagę. Chatbot odpowiadający na ogólne zapytania bardzo różni się od systemu wpływającego na decyzje o zatrudnieniu lub udzieleniu pożyczki. Różnica polega na wpływie.

Organizacje często nie doceniają tego, jak szybko "użyteczna automatyzacja" staje się "regulowanym wsparciem decyzyjnym", gdy zaczyna kształtować rzeczywiste wyniki. Dlatego też klasyfikacja musi być spójna, udokumentowana i możliwa do sprawdzenia - a nie nieformalna ocena dokonana raz i pozostawiona bez komentarza.

ISO 42001 Checklist PDF Download
Loading...
DO POBRANIA ZA DARMO

Lista kontrolna gotowości ISO/IEC 42001

Jeśli zaczynasz oceniać, w jaki sposób sztuczna inteligencja jest zarządzana w Twojej organizacji, ta lista kontrolna stanowi ustrukturyzowany punkt wyjścia. Pomaga zidentyfikować miejsca, w których wykorzystywana jest sztuczna inteligencja, ocenić obecne podejście do zarządzania i zrozumieć, co może być wymagane w celu dostosowania do normy ISO/IEC 42001.

Od systemów AI do systemów zarządzania

Tam, gdzie mamy do czynienia ze sztuczną inteligencją wysokiego ryzyka, zmienia się punkt ciężkości regulacji. Nie chodzi już tylko o sam model. Chodzi o system zarządzania wokół niego. Organy regulacyjne są zainteresowane tym, czy organizacje mogą wykazać kontrolę. Obejmuje to sposób identyfikacji ryzyka, sposób dokumentowania decyzji, sposób utrzymywania nadzoru i sposób rozwiązywania problemów, jeśli coś pójdzie nie tak.

Zazwyczaj wymaga to od organizacji zajęcia się takimi obszarami jak:

  • zarządzanie ryzykiem i odpowiedzialność,
  • zarządzanie danymi i dokumentacja,
  • przejrzystość i identyfikowalność,
  • nadzór ludzki,
  • monitorowanie i obsługa incydentów.

Nie są to odosobnione wymagania. Tworzą one strukturę zarządzania.

Zgodność w praktyce polega mniej na udowodnieniu, że model działa, a bardziej na pokazaniu, że organizacja wokół niego ma kontrolę.

Zakazane praktyki i sztuczna inteligencja ogólnego przeznaczenia

Ustawa definiuje również ograniczony zestaw zakazanych praktyk AI. Choć ich zakres jest wąski, wiążą się one z najbardziej znaczącymi karami. Organizacje powinny być w stanie wykazać, że zostały one uwzględnione i wykluczone w ramach procesu zarządzania.

Jednocześnie sztuczna inteligencja ogólnego przeznaczenia wprowadza kolejną warstwę odpowiedzialności. Wiele organizacji polega na możliwościach AI wbudowanych w narzędzia innych firm, zamiast tworzyć własne modele.

Rodzi to praktyczne pytania dotyczące nadzoru nad dostawcami, przejrzystości, dokumentacji i sposobu zarządzania ryzykiem na wyższym szczeblu. W praktyce zarządzanie nie może kończyć się na zakupach. Musi on obejmować sposób, w jaki sztuczna inteligencja jest faktycznie wykorzystywana w codziennych operacjach.

Pytania, przed którymi stoją obecnie organizacje

W różnych branżach dyskusja na temat sztucznej inteligencji uległa zmianie. Nie jest ona już napędzana wyłącznie przez innowacje. Jest ona w coraz większym stopniu kształtowana przez odpowiedzialność. Zespoły kierownicze zadają pytania takie jak:

  • Gdzie dokładnie używamy sztucznej inteligencji?
  • Które z tych zastosowań mogą być obarczone wysokim ryzykiem?
  • Kto jest właścicielem związanego z tym ryzyka?
  • Jaka dokumentacja istnieje?
  • Czy możemy wyjaśnić nasze kontrole organowi regulacyjnemu lub audytorowi?

Nie są to pytania czysto prawne. Są to pytania dotyczące zarządzania.
Organizacje, które już stosują ustrukturyzowane systemy zarządzania, często mają przewagę. Są one przyzwyczajone do definiowania obowiązków, prowadzenia dokumentacji i wykazywania kontroli. Wyzwaniem jest rozszerzenie tej samej dyscypliny na sztuczną inteligencję.

Jak ramy zarządzania wspierają zgodność

Unijna ustawa o sztucznej inteligencji określa, czym organizacje powinny się zająć, ale nie określa, w jaki sposób zarządzanie powinno być zorganizowane wewnętrznie.

W tym miejscu cenne staje się podejście oparte na systemach zarządzania. Zapewniają one sposób na połączenie obowiązków, procesów i kontroli w coś spójnego i powtarzalnego.

W praktyce ustrukturyzowane podejście do zarządzania sztuczną inteligencją łączy w sobie jasno określone role i obowiązki, pełną inwentaryzację systemów sztucznej inteligencji i przypadków użycia oraz spójną metodę klasyfikacji i oceny ryzyka. Obejmuje również kontrole cyklu życia wspierane przez udokumentowane zasady, wraz z mechanizmami monitorowania, eskalacji i ciągłego doskonalenia.

Dla wielu organizacji norma ISO/IEC 42001 staje się praktyczną strukturą w tym obszarze. Zapewnia ona ustrukturyzowane, podlegające audytowi podejście do zarządzania systemami sztucznej inteligencji. Ważne jest, aby zachować jasne rozróżnienie:

  • unijna ustawa o sztucznej inteligencji określa wymogi prawne,
  • ramy zarządzania pomagają je zoperacjonalizować,
  • niezależna ocena wzmacnia zaufanie do sposobu ich stosowania.

Od czego zacząć

Dla większości organizacji punktem wyjścia nie jest dogłębny przegląd techniczny każdego modelu. Jest nim przejrzystość. Praktyczne podejście często opiera się na prostym schemacie.

  • Najpierw należy zbudować widoczność. Mapuj, gdzie sztuczna inteligencja jest już używana w całej organizacji - w tym w systemach wewnętrznych, narzędziach innych firm i wbudowanych funkcjach, które mogą nie być od razu oczywiste.
  • Następnie ustal odpowiedzialność. Określ, kto jest odpowiedzialny za nadzór, ocenę ryzyka i dokumentację. Bez jasnej odpowiedzialności zarządzanie ma tendencję do pozostawania nieformalnym.
  • Następnie należy ocenić narażenie. Określ, gdzie mogą pojawić się pytania dotyczące wysokiego ryzyka lub zabronionego użycia. Rzadko jest to czysto techniczne ćwiczenie - wymaga wkładu ze strony zespołów prawnych, zgodności, ryzyka i operacyjnych.
  • Na koniec zacznij formalizować zarządzanie. Dostosuj zasady, kontrole i procesy do modelu, który jest spójny i powtarzalny.

Celem nie jest doskonałość od samego początku. Chodzi o możliwość obrony - zdolność do wykazania, że systemy AI są zrozumiałe, ryzyko jest oceniane, a zarządzanie jest stosowane w ustrukturyzowany sposób.

Co to oznacza w praktyce

Unijna ustawa o sztucznej inteligencji to nie tylko zmiana regulacyjna. To test dojrzałości organizacyjnej. Organizacje najlepiej przygotowane na rok 2026 niekoniecznie będą tymi z najbardziej zaawansowanymi możliwościami AI. Będą to te, które będą w stanie jasno wykazać, w jaki sposób te możliwości są zarządzane.

Będą w stanie wyjaśnić:

  • czego używają,
  • jakie ryzyko to stwarza,
  • w jaki sposób są one zarządzane,
  • i kto ponosi odpowiedzialność.

Dla wielu osób pytanie nie dotyczy już tego, czy zarządzanie sztuczną inteligencją musi być sformalizowane, ale czy można je wykazać z pewnością. Zamiast zaczynać od zera, coraz większy nacisk kładzie się na rozszerzenie istniejących systemów zarządzania, aby odzwierciedlić sposób, w jaki sztuczna inteligencja jest obecnie wykorzystywana - w sposób ustrukturyzowany, przejrzysty i możliwy do udowodnienia, gdy ma to znaczenie.

Porozmawiaj z DQS

Jeśli chcesz zrozumieć, w jaki sposób unijna ustawa o sztucznej inteligencji ma zastosowanie do Twojej organizacji i jak w praktyce wygląda podejście do zarządzania sztuczną inteligencją gotowe do audytu, skontaktuj się z lokalnym biurem DQS, aby rozpocząć rozmowę.

Skon­tak­tuj się
Autor

Aakriti Patwari

Loading...

Powiązane artykuły i wydarzenia

Możesz być również zainteresowany tym
Blog
Loading...

Komunikacja kryzysowa podczas ataku ransomware: Zarządzanie informacjami w sytuacji kryzysowej

Blog
Loading...

Trzy filary bezpieczeństwa przyszłości

Blog
Loading...

DTNA wymaga etykiet TISAX® od dostawców