Umělá inteligence (AI) se rychle rozvíjí, modely strojového učení (ML) předpovídají výsledky, automatizují úkoly a generují obsah. S rostoucí schopností systémů AI se však objevují nová rizika, která vyžadují přísnější bezpečnostní opatření a regulační dohled.

Portrait of Smiling IT Specialist Using Tablet Computer in Data Center. Big Server Farm Cloud Comput
Loading...

Vývoj AI v letech 1950–2025

Umělá inteligence se vyvíjí od 50. let 20. století, kdy Alan Turing navrhl, že stroje mohou simulovat inteligenci. Termín "umělá inteligence" vznikl v roce 1956 a vedl k desetiletím výzkumu a průlomovým objevům. Mezi historické milníky patří např:

  • Deep Blue společnosti IBM, který v roce 1997 porazil šachového mistra.
  • spuštění Siri v roce 2011
  • AlphaGo společnosti DeepMind překonal lidské hráče v roce 2016.

V nedávné době prokázaly generativní modely umělé inteligence jako ChatGPT a DALL-E schopnost vytvářet texty a obrázky podobné lidským . V důsledku toho a v kombinaci s tímto vývojem v oblasti ML a AI se objevila nová rizika pro společnosti i jednotlivce.

Bezpečnostní rizika AI vs. tradiční kybernetické bezpečnostní hrozby

Tradiční kyberbezpečnostní hrozby zahrnují phishing, malware, průniky do sítě a zachycení dat. Tyto útoky často spoléhají na lidskou chybu a slabiny v technické obraně, a proto by strategie zmírňování jejich dopadů měly kombinovat zabezpečení sítě, šifrování a školení uživatelů.

Bezpečnostní rizika spojená s umělou inteligencí mají některé podobnosti s tradičními riziky, ale přinášejí nové výzvy:

  • Předpojatost - Modely AI mohou ve svých tréninkových datech odrážet předpojatost, což vede k nespravedlivým nebo diskriminačním výsledkům.
  • Transparentnost - Mnoho modelů AI funguje jako "černé skříňky", takže je obtížné posoudit, jakým způsobem dospívají k rozhodnutím.

Uveďme několik příkladů výše uvedeného: Příklady: spamové filtry poháněné umělou inteligencí špatně klasifikují e-maily; neobjektivní schvalování půjček umělou inteligencí; autonomní vozidla dělají nebezpečná rozhodnutí. Řešení těchto rizik vyžaduje bezpečnostní protokoly specifické pro AI, validaci modelů, snižování zkreslení a techniky vysvětlování. První globální subjekt, který začal přijímat legislativu týkající se snižování rizik, vstoupil v platnost 2. února 2025 prostřednictvím Evropské unie (EU).

Regulace umělé inteligence: zákon EU o umělé inteligenci a globální snahy

Zákon EU o umělé inteligenci kategorizuje systémy umělé inteligence podle úrovně rizika a zavádí přísná pravidla pro vysoce rizikové aplikace, jako je zdravotnictví a finančnictví. Rovněž prosazuje požadavky na transparentnost a sankce za jejich nedodržení.

Opatření přijímají i další vlády: Podle agentury Reuters zavedla Čína pravidla pro generativní AI, Velká Británie podle Financial Times uspořádala diskuse o bezpečnosti AI a USA vydaly nařízení o bezpečnosti AI. V reakci na to představila organizace ISO mezinárodní normu 42001, která nabízí návod pro organizace, jak vytvořit důvěryhodné systémy řízení AI.

Lets browse for a few ideas. Shot of a group of professionals using wireless technology during a mee
Loading...

ISO 42001 pro bezpečnost a správu umělé inteligence

ISO 42001 je nově vznikající norma pro řízení UI. Podobně jako norma ISO 27001 stanovuje požadavky na bezpečnost informací, i norma ISO 42001 poskytuje pokyny pro:

  • Odpovědnost - definování odpovědnosti za dohled nad systémy UI.
  • Kvalita dat - Zajištění přesnosti a reprezentativnosti tréninkových dat.
  • Bezpečnost - Ochrana modelů AI před útoky a zneužitím.
  • Spravedlnost a transparentnost - Zajištění vysvětlitelnosti rozhodnutí AI a omezení zkreslení.

Důležité je, že hodnocení podle norem ISO 42001 a ISO 27001 lze integrovat. To může vaší organizaci přinést zvýšení efektivity, včetně výrazného zkrácení doby trvání auditů.

Zavedení normy ISO 42001 v oblasti bezpečnosti umělé inteligence ve vaší společnosti

Organizace, které se připravují na audit systému řízení umělé inteligence (AIMS), by měly:

  1. Seznámit se s normou ISO 42001.
  2. Provést posouzení připravenosti.
  3. Vypracovat plán, včetně posouzení rizik v oblasti UI.
  4. Zavést systém AIMS s neustálým zlepšováním a etickými postupy v oblasti AI.
  5. Zapojit zúčastněné strany a integrovat bezpečnost AI do podnikových činností.

Příloha B normy ISO 42001 obsahuje podrobné pokyny k implementaci, zatímco přílohy C a D se zabývají cíli, analýzou rizik a aplikacemi specifickými pro dané odvětví. Pokud vás zajímá, co to může znamenat pro vaši společnost, obraťte se na naše odborníky ještě dnes.

Jak norma ISO 42001 podporuje dodržování zákona EU o umělé inteligenci

Norma ISO 42001 je v souladu se zákonem EU o umělé inteligenci tím, že nabízí strukturované kontrolní mechanismy pro zabezpečení a správu umělé inteligence. K dispozici je mapovací dokument, který propojuje články ISO 42001 s požadavky zákona EU o AI, což organizacím zajišťuje možnost prokázat soulad.

Obchodní výhody přijetí normy ISO 42001

Mezi odvětví, která mají z bezpečnostních rámců AI prospěch, patří např:

  • Technologické společnosti - Zajištění etického vývoje AI.
  • Zdravotnictví - Zabezpečení diagnostiky využívající AI.
  • Finance - Posílení posuzování rizik na základě AI.
  • Maloobchod - Zlepšení doporučovacích systémů založených na AI.
  • Státní správa - Zlepšení rozhodování založeného na AI.

Přijetí normy ISO 42001 vede k:

  • Zvýšená bezpečnost AI - Ochrana před nepřátelskými hrozbami.
  • Úspory nákladů - Zefektivnění řízení rizik AI.
  • Připravenost na regulaci - Splnění požadavků na shodu s předpisy.
  • Konkurenční výhoda - Prokázání etických postupů v oblasti AI.

Výzvy, kterým společnosti čelí při zavádění normy ISO 42001

Identifikace a řízení rizik umělé inteligence

Tvorba dokumentace pro normu ISO 42001

Držení kroku s vyvíjejícími se regulacemi v oblasti umělé inteligence.

Definování klíčových ukazatelů výkonnosti (KPI) pro zlepšování systému řízení umělé inteligence (AIMS).

Integrace systému řízení umělé inteligence (AIMS) do stávajících rámců

Monitorování výkonnosti AI systémů

Proč by podniky měly jednat právě teď

Regulace a normy v oblasti umělé inteligence se rozšiřují. Organizace, které se přizpůsobí normě ISO 42001, budou lépe připraveny na regulační kontrolu a bezpečnostní rizika. Silná správa AI také buduje důvěru a snižuje právní rizika, což z ní činí strategickou prioritu pro každou společnost využívající AI.

Zvolit si pro certifikaci podle normy ISO 42001 společnost DQS znamená spolupracovat s důvěryhodným certifikačním orgánem s rozsáhlými odbornými znalostmi, který nabízí komplexní podporu v průběhu celého certifikačního procesu a provede vás od počáteční žádosti až po konečnou akreditaci.

Je vaše společnost zranitelná vůči rizikům spojeným s UI? Obraťte se nezávazně na naše odborníky a zjistěte to.

tcp-III-med-dqs-two businessmen looking together at workbooks near high-rise buildings
Loading...

Ověřte si svou zranitelnost vůči AI

Získejte vlastní nabídku a zjistěte, jak si stojíte v oblasti AIMS v roce 2025.

Začni kon­verzaci
Autor
Pavol Plevják

Ředitel a jednatel certifikační společnosti DQS Slovakia, s.r.o. Je rovněž certifikačním auditorem třetí strany pro normy ISO 9001 a IATF 16949. Dlouhá léta spolupracuje s výrobci automobilů (OEM) a jejich dodavateli, kde se mu často podařilo nahlédnout, co se skrývá za mnoha požadavky na systémy kvality. To mu umožnilo lépe pochopit, proč nejde "jen" o požadavky, ale také o filozofii myšlení směrem k zákazníkovi. Automobilovému průmyslu se plně věnuje od ukončení studia na vysoké škole, což mu umožnilo získat zkušenosti na pozicích, jako je zástupce pro kvalitu, realizace školení a poradenství, manažer vývoje až po certifikaci systému řízení kvality.

Loading...