Zákon o AI
Zákon o umělé inteligenci vstoupil v platnost dne 1. srpna 2024 a bude plně použitelný o dva roky později, dne 2. srpna 2026, s některými výjimkami:
- zákazy a povinnosti týkající se gramotnosti v oblasti umělé inteligence vstoupily v platnost dne 2. února 2025
- pravidla správy a povinnosti týkající se univerzálních modelů UI vstoupí v platnost dne 2. srpna 2025.
- pravidla pro vysoce rizikové systémy UI – začleněné do regulovaných produktů – mají prodloužené přechodné období do 2. srpna 2027
NARIZENI-EVROPSKEHO-PARLAMENTU-A-RADY-EU-20241689 – plná verze

EVERY REGARD s.r.o.
- více než 360 implementací GDPR od roku 2018
- více než 6 000 zaměstnanců u našich klientů
- 20 firem, u kterých vykonáváme funkci Pověřence pro ochranu osobních údajů
- naše řešení Souladu zpracování osobních údajů s GDPR prošlo bez závad auditem TISAX u našeho klienta
Zákon o umělé inteligenci je vůbec prvním právním rámcem pro umělou inteligenci, který se zabývá riziky umělé inteligence a staví Evropu do vedoucí úlohy v celosvětovém měřítku.
Zákon o umělé inteligenci (nařízení (EU) 2024/1689, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci) je vůbec prvním komplexním právním rámcem pro umělou inteligenci na světě. Cílem pravidel je podpořit důvěryhodnou umělou inteligenci v Evropě.
Zákon o umělé inteligenci stanoví jasný soubor pravidel založených na rizicích pro vývojáře a provozovatele umělé inteligence, pokud jde o konkrétní použití umělé inteligence. Zákon o umělé inteligenci je součástí širšího balíčku politických opatření na podporu rozvoje důvěryhodné umělé inteligence, který zahrnuje rovněž balíček týkající se inovací v oblasti umělé inteligence, zahájení továren na umělou inteligenci a koordinovaný plán v oblasti umělé inteligence. Tato opatření společně zaručují bezpečnost, základní práva a umělou inteligenci zaměřenou na člověka a posilují zavádění, investice a inovace v oblasti umělé inteligence v celé EU.
S cílem usnadnit přechod na nový regulační rámec zahájila Komise dobrovolnou iniciativu .
Přijatý zákon o umělé inteligenci, jejímž cílem je podpořit budoucí provádění, spolupracovat se zúčastněnými stranami a vyzvat poskytovatele a provozovatele umělé inteligence z Evropy i mimo ni, aby včas splnili klíčové povinnosti vyplývající z zákonu o umělé inteligenci.
Proč potřebujeme pravidla pro umělou inteligenci?
Zákon o umělé inteligenci zajišťuje, že Evropané mohou důvěřovat tomu, co umělá inteligence nabízí. Zatímco většina systémů UI představuje omezené riziko a může přispět k řešení mnoha společenských výzev, některé systémy UI vytvářejí rizika, která musíme řešit, abychom se vyhnuli nežádoucím výsledkům.
Často například není možné zjistit, proč systém UI učinil rozhodnutí nebo předpověď a přijal konkrétní opatření. Proto může být obtížné posoudit, zda byl někdo nespravedlivě znevýhodněn, například v rozhodnutí o přijetí nebo v žádosti o veřejně prospěšný režim.
Ačkoli stávající právní předpisy poskytují určitou ochranu, nepostačují k řešení konkrétních problémů, které mohou systémy UI přinést.
Přístup založený na posouzení rizik
Zákon o umělé inteligenci definuje čtyři úrovně rizika pro systémy umělé inteligence:
Pyramida znázorňuje čtyři úrovně rizika:
- nepřijatelné riziko;
- vysoce rizikové;
- omezené riziko,
- minimální nebo žádné riziko
Nepřijatelné riziko
Všechny systémy UI považované za jasnou hrozbu pro bezpečnost, živobytí a práva lidí jsou zakázány. Zákon o umělé inteligenci zakazuje osm postupů, konkrétně:
- škodlivé manipulace a klamání založené na umělé inteligenci
- škodlivé využívání zranitelností založené na umělé inteligenci
- sociální skórování
- Posouzení nebo predikce rizika jednotlivého trestného činu
- necílené škrábání internetového nebo CCTV materiálu za účelem vytvoření nebo rozšíření databází rozpoznávání obličeje
- rozpoznávání emocí na pracovištích a ve vzdělávacích institucích
- biometrická kategorizace pro vyvození určitých chráněných vlastností
- biometrická identifikace na dálku v reálném čase pro účely vymáhání práva na veřejně přístupných místech

Minimální nebo žádné riziko
Zákon o umělé inteligenci nezavádí pravidla pro umělou inteligenci, která se považují za minimální nebo žádná rizika. Převážná většina systémů UI, které se v současné době v EU používají, spadá do této kategorie. To zahrnuje aplikace, jako jsou videohry s podporou umělé inteligence nebo spamové filtry.
Jak to všechno funguje v praxi pro poskytovatele vysoce rizikových systémů UI?
Jakmile je systém UI na trhu, jsou orgány odpovědné za dozor nad trhem, provozovatelé zajišťují lidský dohled a monitorování a poskytovatelé mají zaveden systém monitorování po uvedení na trh. Poskytovatelé a provozovatelé budou rovněž hlásit závažné incidenty a poruchy.
Vysoké riziko
Případy použití UI, které mohou představovat závažná rizika pro zdraví, bezpečnost nebo základní práva, jsou klasifikovány jako vysoce rizikové. Mezi tyto vysoce rizikové případy použití patří:
- Bezpečnostní komponenty UI v kritických infrastrukturách (např. v dopravě), jejichž selhání by mohlo ohrozit život a zdraví občanů
- Řešení UI používaná ve vzdělávacích institucích, která mohou určovat přístup ke vzdělání a průběh profesního života (např. bodování zkoušek)
- Bezpečnostní součásti výrobků založené na umělé inteligenci (např. aplikace umělé inteligence v roboticky asistované chirurgii)
- Nástroje UI pro zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti (např. software pro třídění životopisů pro nábor pracovníků)
- Některé případy použití umělé inteligence používané k poskytnutí přístupu k základním soukromým a veřejným službám (např. úvěrové hodnocení, které občanům upírá možnost získat půjčku)
- Systémy UI používané pro biometrickou identifikaci na dálku, rozpoznávání emocí a biometrickou kategorizaci (např. systém UI pro zpětnou identifikaci zloděje v obchodě)
- Případy použití umělé inteligence při prosazování práva, které mohou zasahovat do základních práv lidí (např. hodnocení spolehlivosti důkazů)
- Případy použití umělé inteligence při řízení migrace, azylu a hraničních kontrol (např. automatizované posuzování žádostí o víza)
- Řešení UI používaná při výkonu spravedlnosti a demokratických procesů (např. řešení UI pro přípravu soudních rozhodnutí)
Vysoce rizikové systémy UI podléhají přísným povinnostem předtím, než mohou být uvedeny na trh:
- odpovídající systémy posuzování a zmírňování rizik
- vysoká kvalita souborů údajů dodávajících do systému, aby se minimalizovalo riziko diskriminačních výsledků
- protokolování činnosti s cílem zajistit sledovatelnost výsledků
- podrobnou dokumentaci poskytující veškeré nezbytné informace o systému a jeho účelu, aby orgány mohly posoudit jeho soulad
- jasné a přiměřené informace pro provozovatele
- vhodná opatření v oblasti lidského dohledu
- vysoká úroveň robustnosti, kybernetické bezpečnosti a přesnosti
Riziko transparentnosti
To se týká rizik spojených s potřebou transparentnosti, pokud jde o používání umělé inteligence. Zákon o umělé inteligenci zavádí zvláštní povinnosti zveřejňování informací s cílem zajistit, aby lidé byli v případě potřeby informováni, aby byla zachována důvěra. Například při používání systémů umělé inteligence, jako jsou chatboti, by lidé měli být upozorněni na to, že komunikují se strojem, aby mohli přijmout informované rozhodnutí.
Poskytovatelé generativní umělé inteligence musí navíc zajistit, aby byl obsah generovaný umělou inteligencí identifikovatelný. Kromě toho by měl být určitý obsah vytvořený umělou inteligencí jasně a viditelně označen, konkrétně deep fakes a texty zveřejněné za účelem informování veřejnosti o záležitostech veřejného zájmu.
Řešení pro důvěryhodné používání velkých modelů umělé inteligence
Univerzální modely UI mohou plnit širokou škálu úkolů a stávají se základem mnoha systémů UI v EU. Některé z těchto modelů by mohly nést systémová rizika, pokud jsou velmi schopné nebo široce používané. Aby byla zajištěna bezpečná a důvěryhodná umělá inteligence, zavádí zákon o umělé inteligenci pravidla pro poskytovatele těchto modelů. To zahrnuje pravidla týkající se transparentnosti a autorského práva. U modelů, které mohou nést systémová rizika, by poskytovatelé měli tato rizika posoudit a zmírnit.
Pravidla zákonu o umělé inteligenci týkající se univerzální umělé inteligence vstoupí v platnost v srpnu 2025. Úřad pro umělou inteligenci usnadňuje vypracování kodexu zásad, který tato pravidla podrobně stanoví. Kodex by měl pro poskytovatele představovat ústřední nástroj k prokázání souladu s zákonem o umělé inteligenci, který bude zahrnovat nejmodernější postupy.
Správa a provádění
Evropský úřad pro umělou inteligenci a orgány členských států odpovídají za provádění zákonu o umělé inteligenci, dohled nad ním a jeho prosazování. Rada pro umělou inteligenci, vědecká komise a poradní sbor řídí správu zákonu o umělé inteligenci a poskytují jí poradenství. Další informace o správě a prosazování zákonu o umělé inteligenci.
Další kroky
Zákon o umělé inteligenci vstoupil v platnost dne 1. srpna 2024 a bude plně použitelný o dva roky později, dne 2. srpna 2026, s některými výjimkami:
- zákazy a povinnosti týkající se gramotnosti v oblasti umělé inteligence vstoupily v platnost dne 2. února 2025
- pravidla správy a povinnosti týkající se univerzálních modelů UI vstoupí v platnost dne 2. srpna 2025.
- pravidla pro vysoce rizikové systémy UI – začleněné do regulovaných produktů – mají prodloužené přechodné období do 2. srpna 2027
EVERY REGARD s.r.o.
Zámostní 1155/27, Ostrava - Slezská Ostrava, PSČ 710 00
IČO: 05460034
Datová schránka: 8624hkb
Telefon: +420 607 888 494
Asistentka: gdpr@everyregard.one
Kontakty.
Jednatel: ing. Lubomír Urbánek
služební email: lubomir.urbanek@everyregard.one
Hlavní GDPR konzultant: Miroslav Kalinský
služební email: kalinsky@everyregard.one
webové stránky: https://www.everyregard.one