Dne 2. srpna tohoto roku vstoupí v platnost dlouho očekávaný Akt o umělé inteligenci (Akt), schválený Evropským parlamentem a Radou Evropské Unie. Tento legislativní dokument představuje zásadní krok k regulaci a řízení uvádění systémů umělé inteligence (AI) na unijní trh. Přináší zejména nový rámec pro aplikaci a monitorování technologií AI a zavádí rozsáhlé požadavky, které mají zajistit, že systémy AI budou vyvíjeny, zaváděny a používány zodpovědně.
V tomto článku si proto představíme hlavní změny, které s sebou schválené znění Aktu přináší.
Zakázané postupy v oblasti AI
V rámci Aktu byly zavedeny přísné regulace týkající se zakázaných postupů v oblasti AI, které mají za cíl především chránit základní práva občanů. Zákaz platí pro systémy jako jsou sociální kreditní hodnocení, rozpoznávání emocí v práci a vzdělávání, AI využívající lidské zranitelnosti, manipulace s chováním a obcházení svobodné vůle, hromadný scraping obličejů pro databáze rozpoznávání obličejů, biometrické kategorizace citlivých charakteristik, specifické aplikace prediktivního policejního dohledu a použití biometrické identifikace v reálném čase policií ve veřejných prostorách s výjimkou předem autorizovaných situací.
Povinnosti poskytovatelů systémů AI
Akt klade velký důraz především na povinnosti poskytovatelů systémů AI, kteří jsou klíčovými účastníky v dodavatelském řetězci. Tito poskytovatelé zahrnují jak společnosti, které navrhují a vyvíjejí systémy umělé inteligence, tak i ty, které je následně uvádějí na trh.
Povinnosti poskytovatelů zahrnují nejen technické aspekty, ale také otázky transparentnosti, odpovědnosti a ochrany dat, které mají za cíl chránit základní práva uživatelů a veřejnosti před možnými negativními důsledky rizikového nasazení AI. V rámci těchto povinností se vyžaduje zajištění např. vypracování technické dokumentace nebo dodržování kodexů správné praxe.
V případě poskytovatelů vysoce rizikových systémů AI jsou tyto povinnosti rozšířeny mj. o nutnost lidského dohledu nebo kybernetickou bezpečnost.
Povinnosti zavádějících subjektů
Další klíčovou skupinou jsou zavádějící subjekty, tedy organizace a jednotlivci, kteří systémy AI implementují. Jejich odpovědnost se vztahuje na každodenní používání a řízení AI systémů. Povinnosti zavádějících subjektů zahrnují nejen monitorování a hlášení incidentů spojených s AI, ale také zajištění souladu s právními předpisy a etickými standardy. Důraz je kladen opět na transparentnost, ale také na prevenci a včasnou reakci na problémy, což je zásadní pro minimalizaci potenciálních škod a zajištění, že AI systémy přinášejí výhody bez negativních dopadů na společnost.
Obecné modely AI
Generativní umělá inteligence (AI) se stává stále významnější v technologickém a kreativním prostředí, což vedlo k přijetí nového znění Aktu o umělé inteligenci, který zásadně ovlivňuje regulaci těchto nástrojů, jako jsou ChatGPT a Copilot. Nejvýznamnější změnou je klasifikace těchto systémů jako obecné modely AI (GPAI) a GPAI se systémovým rizikem, kde druhé jmenované musí splňovat přísné podmínky ohledně dopadů a rizik.
Poskytovatelé GPAI musí vypracovat a aktualizovat technickou dokumentaci a respektovat práva Unie v oblasti autorského práva, zatímco poskytovatelé GPAI se systémovým rizikem musí navíc zajistit kybernetickou bezpečnost a zmírňovat systémová rizika. Akt rovněž upravuje podmínky pro data mining, který podléhá pravidlům směrnice o autorském právu, a stanoví, že poskytovatelé AI systémů musí dodržovat unijní právní úpravu bez ohledu na svou jurisdikci, což má zajistit rovné podmínky na trhu.
Vznik nových dozorových orgánů
V reakci na potřebu efektivního dohledu nad dodržováním nových pravidel a standardů v oblasti AI, Akt o umělé inteligenci zavádí vznik nových dozorových orgánů na úrovni členských států EU. Tyto orgány budou mít klíčovou roli v monitorování a kontrolování implementace a používání AI. Nové dozorové orgány budou mít pravomoc provádět audity, vyžadovat informace a následně vydávat pokyny v případě zjištění nedostatků. Na evropské úrovni bude fungovat Koordinační výbor pro umělou inteligenci, který bude koordinovat činnost národních orgánů a zajistí harmonizaci přístupů napříč EU. Tento krok má za cíl vytvořit jednotný a efektivní systém dohledu, který bude schopen reagovat na dynamicky se vyvíjející oblast AI.
Sankce
Za porušení povinností plynoucích z Aktu mohou být uděleny správní pokuty až do výše 7 % ročního celosvětového obratu nebo 35 milionů eur. Za většinu ostatních porušení hrozí pokuta až 3 % obratu nebo 15 milionů eur. Za poskytnutí nesprávných informací až 1,5 % obratu nebo 7,5 milionů eur. Pro malé a střední podniky a startupy platí omezení pokut s možností vzniku regulačních sandboxů.
Závěr
Schválené znění Aktu o umělé inteligenci představuje komplexní a přísný rámec pro regulaci a řízení AI technologií na unijním trhu. Zajišťuje ochranu základních práv občanů, stanovuje povinnosti pro poskytovatele a zavádějící subjekty, klasifikuje obecné modely AI, zavádí nové dozorové orgány a stanovuje přísné sankce za porušení pravidel.
Tato opatření mají za cíl vytvořit bezpečné a transparentní prostředí pro vývoj a implementaci AI technologií, podporující inovace a zároveň chránící společnost před možnými riziky spojenými s AI., avšak jejich efektivitu a vymahatelnost prokáže až praxe.