Regulace umělé inteligence (AI) nabývá na významu a představuje jeden z nejdiskutovanějších právních a technologických fenoménů posledních let. Evropská unie a Spojené státy americké k ní však přistupují znatelně odlišně, což souvisí s jejich rozdílnými tradicemi, hodnotami a společenskými prioritami. Podle některých odborníků tyto rozdíly připomínají situaci z roku 2020, kdy se v Evropě dokončovala komplexní úprava ochrany osobních údajů ve formě GDPR, zatímco Spojené státy setrvávaly u roztříštěných právních úprav jednotlivých států.
Regulace AI v Evropské unii
Evropská unie se k otázce regulace AI postavila obdobně jako ve zmíněném případě ochrany osobních údajů. Účelem již platného Aktu o umělé inteligenci je totiž nejen harmonizovat předpisy napříč členskými státy, ale především chránit práva občanů Evropské unie. Nová regulace mj. klasifikuje systémy AI podle úrovně rizika, od zakázaných systémů až po systémy s minimálním rizikem. Zakazuje především použití technologií, které ohrožují základní lidská práva, například nástroje pro manipulaci s chováním či hodnocení sociálního kreditu (více jsme se problematice věnovali zde). Přísné požadavky se kladou také na vysoce rizikové systémy AI, které budou muset splnit povinnosti jako je např. správu dat, transparentnost nebo lidský dohled. Sankce za porušení těchto pravidel mohou dosáhnout až sedmi procent celosvětového ročního obratu dané společnosti nebo 35 000 000 EUR, což nepochybně podtrhuje váhu, jakou Evropská komise regulaci AI přisuzuje.
Regulace AI v USA
Ve Spojených státech dosud chybí jednotná federální legislativa zaměřená výlučně na umělou inteligenci. Regulace vzniká především na úrovni jednotlivých států a agentur, jako je Federální obchodní komise (Federal Trade Commission), která se soustředí zejména na ochranu spotřebitelů a potírání nekalých praktik. Na úrovni států lze zmínit např. Utah, jehož AI Policy Act požaduje, aby podnikatelé uváděli, zda používají nástroje generativní umělé inteligence a stanovuje odpovědnost podnikatelů za škodu způsobenou takovýmito systémy.
Některé další státy, například Colorado nebo Illinois, zavedly vlastní zákony, které se věnují např. problematice diskriminačního využívání algoritmů a zvýšení transparentnosti. Federální vláda se také zcela jistě pokouší o lepší koordinaci, k níž vyzývá mj. prostřednictvím prováděcího nařízení o bezpečné, zabezpečené a důvěryhodné umělé inteligenci (Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence). Také existují dvě významné iniciativy naznačující možný posun k jednotné úpravě, konkrétně SAFE Innovation Framework a Bipartisan AI Framework. Tyto návrhy se snaží vyvažovat podporu technologického pokroku s ochranou veřejnosti. S ohledem na silnou pozici firem a převažující důraz na volný trh je však otázkou, zda se Spojené státy nakonec vydají podobně přísnou cestou jako Evropská unie nebo zvolí volnější prostředí ve prospěch inovací.
Závěr
Odlišné regulatorní přístupy mají nepochybný přímý dopad především na společnosti působící na globálním trhu. Evropský model sice zvyšuje důraz na ochranu práv spotřebitelů a lidské důstojnosti, avšak vyžaduje časově a finančně náročnější procesy při uvádění nových systémů AI na trh. Americká cesta zatím naopak ponechává firmám větší manévrovací prostor a rychlejší tempo inovací, což ovšem vede k roztříštěnosti právního prostředí a k možnosti, že jednotlivé subjekty mohou přistupovat k ochraně uživatelů rozdílně podle toho, ve kterém státě či sektoru působí. Vzhledem k tomu, že umělá inteligence představují stále významnější součást globálního hospodářství, je pravděpodobné, že se evropský a americký přístup v příštích letech do určité míry vzájemně ovlivní. Zkušenosti s implementací Aktu o umělé inteligenci a případnou federální právní úpravou v USA ukážou, zda se z evropského striktního modelu stane mezinárodní standard, nebo jestli se americký přístup založený na postupném formování sektorových regulací stane alternativou, která rovněž dokáže udržet technologický vývoj v mezích odpovědného užívání.