AK Kalabus

V oblasti umělé inteligence (AI) dochází v rámci Evropské unie k zásadním změnám, které odrážejí jak její regulatorní priority, tak i potřebu mezinárodní spolupráce. Nedávné iniciativy jako Mezinárodní síť institutů pro bezpečnost AI a první návrh Kodexu zásad AI pro obecné účely (Kodex) ukazují dosavadní směr, kterým se EU ubírá. Tyto nové iniciativy se zaměřují především na posílení bezpečnosti, transparentnosti a odpovědného využívání umělé inteligence.

Mezinárodní síť institutů pro bezpečnost AI

V listopadu 2024 bylo v San Francisku zahájeno první zasedání Mezinárodní sítě institutů pro bezpečnost AI, které sdružuje odborné organizace a vládní úřady z několika zemí, včetně Evropské komise. Tato iniciativa navazuje na Soulské prohlášení z května 2024 a představuje významný krok směrem k celosvětové spolupráci při řešení rizik spojených s pokročilými systémy AI.

Cíle a priority sítě zahrnují:

  • Výzkum – spolupráce s vědeckou obcí na vývoji vědeckých metod pro hodnocení rizik a schopností pokročilých systémů AI a jejich mitigaci.
  • Zkoušky – vývoj a sdílení postupů pro bezpečné testování pokročilých modelů AI a provádění společných cvičení.
  • Pokyny – usnadnění sdílených přístupů k posuzování výsledků testování.
  • Začlenění – sdílení informací a technických nástrojů mezi zapojenými partnery a zúčastněnými stranami.

Účastníci zasedání mj. zdůraznili, že spolupráce v oblasti transparentnosti digitálního obsahu a zmírňování rizik vyplývajících ze syntetického obsahu, jako je např. deepfake (kterému jsme se blíže věnovali zde), je klíčová. Současně byly představeny rámcové principy hodnocení rizik systémových modelů AI, které budou dále rozpracovány na summitu v Paříži v roce 2025.

Návrh Kodexu zásad

První návrh Kodexu, představený v říjnu 2024, poskytuje základní rámec pro poskytovatele generativních modelů AI, včetně těch s potenciálním systémovým rizikem. Tento dokument má být klíčovým průvodcem k naplnění povinností vyplývajících z Aktu o umělé inteligenci (AI Akt – blíže zde), a je rozdělen do několika klíčových částí.

Transparentnost a dodržování autorských práv

Kodex zavádí požadavky na zajištění transparentnosti prostřednictvím poskytování technické dokumentace modelů AI, architektuře modelu a tréninkových dat, a umožnění jejich porozumění ze strany Úřadu pro AI a dalších poskytovatelů, kteří chtějí původní model AI integrovat do svých vlastních modelů.

Značný důraz je kladen také na respektování autorských práv, jak je uvedeno v AI Aktu. Poskytovatelé modelů musí implementovat interní kroky, které zajistí např. dodržování pravidel pro text a data mining podle směrnice (EU) 2019/790 a transparentnost v použití chráněného obsahu.

Aby Úřad pro AI mohl sledovat plnění těchto povinností, poskytovatelé budou muset zároveň vypracovat a na žádost Úřadu poskytnout informace o zdrojích údajů používaných pro trénování a testování jejich modelů AI.

Identifikace systémových rizik

Podle AI Aktu se očekává, že poskytovatelé modelů AI budou kontinuálně hodnotit systémová rizika, která mohou vznikat při vývoji a nasazování modelů AI. Návrh kodexu proto obsahuje seznam potenciálních systémových rizik, který definuje hlavní rizika, včetně ztráty kontroly nad modely AI, jejich zneužití pro manipulaci nebo generování nelegálního obsahu, či diskriminace ve velkém měřítku.

Kromě identifikace rizik Kodex rovněž zahrnuje opatření pro zmírňování rizik, která zahrnují technické, bezpečnostní a organizační přístupy, jako je ochrana modelů před jejich zneužitím a zvýšení jejich spolehlivosti. Poskytovatelé by obecně měli zajistit bezpečnost modelů během celého jejich životního cyklu a zavést odpovídající mechanismy pro jejich monitorování po nasazení.

Odpovědnost a řízení rizik

Kodex rovněž podporuje princip proporcionality, který zohledňuje velikost poskytovatelů AI a jejich kapacity. Pro malé a střední podniky jsou tak navrženy jednodušší způsoby plnění povinností. Kodex mj. uvádí, že odpovědnost za systémová rizika musí být přidělena na všech organizačních úrovních poskytovatele, a to včetně vrcholového managementu.

Závěr

Evropská unie se nepochybně zaměřuje na vytvoření bezpečného a transparentního prostředí pro vývoj a implementaci systémů AI, které budou sloužit společnosti jako celku. Přijetí opatření, jako je Kodex zásad pro obecné účely AI, dokládá odhodlání EU chránit základní práva, svobody a demokratické principy. Zároveň však Unie čelí výzvě, jak najít rovnováhu mezi efektivní regulací a podporou technologických inovací, aby si zachovala konkurenceschopnost vůči zemím, které přistupují k umělé inteligenci méně restriktivně, například Spojeným státům.