Umělá inteligence (AI) se rychle rozvíjí, modely strojového učení (ML) předpovídají výsledky, automatizují úkoly a generují obsah. S rostoucí schopností systémů AI se však objevují nová rizika, která vyžadují přísnější bezpečnostní opatření a regulační dohled.

Vývoj AI v letech 1950–2025
Umělá inteligence se vyvíjí od 50. let 20. století, kdy Alan Turing navrhl, že stroje mohou simulovat inteligenci. Termín "umělá inteligence" vznikl v roce 1956 a vedl k desetiletím výzkumu a průlomovým objevům. Mezi historické milníky patří např:
- Deep Blue společnosti IBM, který v roce 1997 porazil šachového mistra.
- spuštění Siri v roce 2011
- AlphaGo společnosti DeepMind překonal lidské hráče v roce 2016.
V nedávné době prokázaly generativní modely umělé inteligence jako ChatGPT a DALL-E schopnost vytvářet texty a obrázky podobné lidským . V důsledku toho a v kombinaci s tímto vývojem v oblasti ML a AI se objevila nová rizika pro společnosti i jednotlivce.
Bezpečnostní rizika AI vs. tradiční kybernetické bezpečnostní hrozby
Tradiční kyberbezpečnostní hrozby zahrnují phishing, malware, průniky do sítě a zachycení dat. Tyto útoky často spoléhají na lidskou chybu a slabiny v technické obraně, a proto by strategie zmírňování jejich dopadů měly kombinovat zabezpečení sítě, šifrování a školení uživatelů.
Bezpečnostní rizika spojená s umělou inteligencí mají některé podobnosti s tradičními riziky, ale přinášejí nové výzvy:
- Útočníci manipulují s modely umělé inteligence tím, že vytvářejí vstupy, které způsobují jejich nesprávná rozhodnutí.
- Předpojatost - Modely AI mohou ve svých tréninkových datech odrážet předpojatost, což vede k nespravedlivým nebo diskriminačním výsledkům.
- Transparentnost - Mnoho modelů AI funguje jako "černé skříňky", takže je obtížné posoudit, jakým způsobem dospívají k rozhodnutím.
- Otrávení dat - Útočníci kompromitují tréninková data AI, což způsobuje nepředvídatelné chování modelů.
Uveďme několik příkladů výše uvedeného: Příklady: spamové filtry poháněné umělou inteligencí špatně klasifikují e-maily; neobjektivní schvalování půjček umělou inteligencí; autonomní vozidla dělají nebezpečná rozhodnutí. Řešení těchto rizik vyžaduje bezpečnostní protokoly specifické pro AI, validaci modelů, snižování zkreslení a techniky vysvětlování. První globální subjekt, který začal přijímat legislativu týkající se snižování rizik, vstoupil v platnost 2. února 2025 prostřednictvím Evropské unie (EU).
Regulace umělé inteligence: zákon EU o umělé inteligenci a globální snahy
Zákon EU o umělé inteligenci kategorizuje systémy umělé inteligence podle úrovně rizika a zavádí přísná pravidla pro vysoce rizikové aplikace, jako je zdravotnictví a finančnictví. Rovněž prosazuje požadavky na transparentnost a sankce za jejich nedodržení.
Opatření přijímají i další vlády: Podle agentury Reuters zavedla Čína pravidla pro generativní AI, Velká Británie podle Financial Times uspořádala diskuse o bezpečnosti AI a USA vydaly nařízení o bezpečnosti AI. V reakci na to představila organizace ISO mezinárodní normu 42001, která nabízí návod pro organizace, jak vytvořit důvěryhodné systémy řízení AI.

ISO 42001 pro bezpečnost a správu umělé inteligence
ISO 42001 je nově vznikající norma pro řízení UI. Podobně jako norma ISO 27001 stanovuje požadavky na bezpečnost informací, i norma ISO 42001 poskytuje pokyny pro:
- Odpovědnost - definování odpovědnosti za dohled nad systémy UI.
- Kvalita dat - Zajištění přesnosti a reprezentativnosti tréninkových dat.
- Bezpečnost - Ochrana modelů AI před útoky a zneužitím.
- Spravedlnost a transparentnost - Zajištění vysvětlitelnosti rozhodnutí AI a omezení zkreslení.
Důležité je, že hodnocení podle norem ISO 42001 a ISO 27001 lze integrovat. To může vaší organizaci přinést zvýšení efektivity, včetně výrazného zkrácení doby trvání auditů.
Zavedení normy ISO 42001 v oblasti bezpečnosti umělé inteligence ve vaší společnosti
Organizace, které se připravují na audit systému řízení umělé inteligence (AIMS), by měly:
- Seznámit se s normou ISO 42001.
- Provést posouzení připravenosti.
- Vypracovat plán, včetně posouzení rizik v oblasti UI.
- Zavést systém AIMS s neustálým zlepšováním a etickými postupy v oblasti AI.
- Zapojit zúčastněné strany a integrovat bezpečnost AI do podnikových činností.
Příloha B normy ISO 42001 obsahuje podrobné pokyny k implementaci, zatímco přílohy C a D se zabývají cíli, analýzou rizik a aplikacemi specifickými pro dané odvětví. Pokud vás zajímá, co to může znamenat pro vaši společnost, obraťte se na naše odborníky ještě dnes.
Jak norma ISO 42001 podporuje dodržování zákona EU o umělé inteligenci
Norma ISO 42001 je v souladu se zákonem EU o umělé inteligenci tím, že nabízí strukturované kontrolní mechanismy pro zabezpečení a správu umělé inteligence. K dispozici je mapovací dokument, který propojuje články ISO 42001 s požadavky zákona EU o AI, což organizacím zajišťuje možnost prokázat soulad.
Obchodní výhody přijetí normy ISO 42001
Mezi odvětví, která mají z bezpečnostních rámců AI prospěch, patří např:
- Technologické společnosti - Zajištění etického vývoje AI.
- Zdravotnictví - Zabezpečení diagnostiky využívající AI.
- Finance - Posílení posuzování rizik na základě AI.
- Maloobchod - Zlepšení doporučovacích systémů založených na AI.
- Státní správa - Zlepšení rozhodování založeného na AI.
Přijetí normy ISO 42001 vede k:
- Zvýšená bezpečnost AI - Ochrana před nepřátelskými hrozbami.
- Úspory nákladů - Zefektivnění řízení rizik AI.
- Připravenost na regulaci - Splnění požadavků na shodu s předpisy.
- Konkurenční výhoda - Prokázání etických postupů v oblasti AI.
Výzvy, kterým společnosti čelí při zavádění normy ISO 42001
Proč by podniky měly jednat právě teď
Regulace a normy v oblasti umělé inteligence se rozšiřují. Organizace, které se přizpůsobí normě ISO 42001, budou lépe připraveny na regulační kontrolu a bezpečnostní rizika. Silná správa AI také buduje důvěru a snižuje právní rizika, což z ní činí strategickou prioritu pro každou společnost využívající AI.
Zvolit si pro certifikaci podle normy ISO 42001 společnost DQS znamená spolupracovat s důvěryhodným certifikačním orgánem s rozsáhlými odbornými znalostmi, který nabízí komplexní podporu v průběhu celého certifikačního procesu a provede vás od počáteční žádosti až po konečnou akreditaci.
Je vaše společnost zranitelná vůči rizikům spojeným s UI? Obraťte se nezávazně na naše odborníky a zjistěte to.

Ověřte si svou zranitelnost vůči AI
Získejte vlastní nabídku a zjistěte, jak si stojíte v oblasti AIMS v roce 2025.
Newsletter DQS
Pavol Plevják
Ředitel a jednatel certifikační společnosti DQS Slovakia, s.r.o. Je rovněž certifikačním auditorem třetí strany pro normy ISO 9001 a IATF 16949. Dlouhá léta spolupracuje s výrobci automobilů (OEM) a jejich dodavateli, kde se mu často podařilo nahlédnout, co se skrývá za mnoha požadavky na systémy kvality. To mu umožnilo lépe pochopit, proč nejde "jen" o požadavky, ale také o filozofii myšlení směrem k zákazníkovi. Automobilovému průmyslu se plně věnuje od ukončení studia na vysoké škole, což mu umožnilo získat zkušenosti na pozicích, jako je zástupce pro kvalitu, realizace školení a poradenství, manažer vývoje až po certifikaci systému řízení kvality.
