AK Kalabus

Obecné modely umělé inteligence (GPAI) zažívají v posledních letech dramatický růst, což podnítilo Evropskou unii k přijetí Aktu o umělé inteligenci (AI Akt), prvního komplexního regulačního rámce na světě. Cílem tohoto nařízení je zvýšit transparentnost, odpovědnost a ochranu základních práv uživatelů. Zároveň ale přináší nové výzvy pro společnosti vyvíjející AI, které se nyní musí vypořádat s přísnými požadavky na compliance. V tomto článku se zaměříme na konkrétní překážky, kterým AI společnosti čelí, a na argumenty, jimiž se snaží ovlivnit podobu regulace ve svůj prospěch.

Dopady AI Aktu na poskytovatele

AI Akt ukládá poskytovatelům a zavádějícím subjektům řadu povinností (kterým jsme se blíže věnovali zde), mezi něž patří zajištění transparentnosti, bezpečnosti a přiměřeného vyhodnocení rizik spojených s diskriminací, manipulací, kybernetickými hrozbami či ochranou autorských práv.

Nový nástroj zvaný „LLM Checker“ od společnosti LatticeFlow, který porovnával velké jazykové modely (LLM) se zněním AI Aktu, však nedávno odhalil, že modely od společností jako OpenAI nebo Meta mají v klíčových oblastech značné nedostatky.

AI Akt mj. uvádí, že systémy AI by měly být vyvíjeny a používány tak, aby zahrnovaly nejrůznější aktéry a podporovaly rovný přístup, genderovou rovnost a kulturní rozmanitost a zároveň bránily diskriminačním dopadům a nespravedlivé zaujatosti, které jsou podle práva Unie a členských států zakázány. Model GPT-3.5 Turbo od společnosti OpenAI však získal v oblasti diskriminujících výstupů relativně nízké skóre 46 %, což reflektuje přetrvávající problém s odrážením lidských předsudků.

AI Akt také stanovuje, že poskytovatelé obecných modelů AI se systémovým rizikem zajistí odpovídající úroveň ochrany kybernetické bezpečnosti. Zde však prokázal zjevné nedostatky model Llama 2 od společnosti Meta, který obdržel skóre pouhých 42 %, a to právě v oblasti prevence kybernetických útoků formou tzv. „únosu promptů“1. Opačným případem byl model Claude 3 Opus od společnosti Anthropic, který v této oblasti obdržel nejvyšší skóre, a to 89 %.

Tlak firem na zmírnění regulace

AI Akt tlačí poskytovatele systémů AI k přehodnocení jejich dosavadních přístupů k ochraně dat, transparentnosti a bezpečnostním standardům zejména prostřednictvím vysokých sankcí, které mohou dosáhnout výše až 7 % celosvětového ročního obratu společnosti.

Velké technologické společnosti také z tohoto důvodu usilovně lobují za mírnější regulace a snaží se tak ovlivnit Kodex zásad AI pro obecné účely (Kodex), který by měl brzy doplnit AI Akt. Tento kodex bude obsahovat zejména praktické pokyny pro poskytovatele systémů AI, jak správně implementovat své zákonné povinnosti.

Mezi společnosti, které na Kodexu pracují patří právě také technologičtí giganti jako je OpenAI, Google, či Amazon. Jejich hlavním cílem je dosáhnout určitého kompromisu, který umožní společnostem chránit jejich obchodní tajemství a zároveň snížit jejich náklady na compliance, ale zároveň nebude zkracovat práva občanů EU. Zástupci těchto firem také varují, že příliš specifické povinnosti mohou zpomalit inovace a omezit konkurenceschopnost evropského trhu v oblasti AI.

Jedním ze sporných bodů je otázka transparentnosti. AI Akt totiž vyžaduje, aby společnosti poskytly podrobné shrnutí dat použitých pro trénování jejich modelů AI. Autoři by tak mohli „jednoduše“ zjistit, zda byl nějaký z modelů AI trénován pomocí jeho děl. To otevírá otázky autorského práva a ochrany duševního vlastnictví, kdy by tvůrci obsahu mohli požadovat kompenzace, pokud jejich práce byla použita bez souhlasu, resp. pokud k tomu došlo i navzdory autorovu „opt-outu“. Nadace Mozilla2 dokonce tvrdí, že povinnost transparentnosti je skvělou šancí objasnit alespoň část tzv. black boxů3. Některé firmy však namítají, že přílišná transparentnost by mohla ohrozit jejich obchodní tajemství.

Regulace versus inovace

AI Akt představuje především pokus EU o regulaci technologie, která může mít významné ekonomické a společenské dopady. Někteří odborníci a významné společnosti v oblasti AI však varují před nadměrnou regulací, která by mohla zpomalit inovace a poškodit malé evropské firmy. Také někteří zástupci startupů požadují, aby regulace byla přizpůsobena jejich potřebám, a argumentují, že přílišné administrativní zátěže mohou poškodit menší hráče na trhu.

Unijní zákonodárci však v AI Aktu několikrát zmiňují, že účelem tohoto nařízení není přílišná regulace, ale je jím především zlepšení fungování vnitřního trhu prostřednictvím jednotného právního rámce, zejména pro vývoj, uvádění na trh, uvádění do provozu a používání těchto systémů AI, což lze spatřit např. v regulačních sandboxech nebo výjimkách pro malé a střední podniky.

Závěr

Závěr
AI Akt sice nastavuje novou globální laťku pro regulaci umělé inteligence, ale jeho implementace bude záviset na efektivním vyvážení mezi ochranou fyzických osob, transparentností a podporou inovací. Zatímco technologické společnosti investují do compliance nástrojů a vyvíjejí tlak na zmírnění svých povinností, klíčovou otázkou zůstává, zda se EU podaří vytvořit rámec, který bude funkční, vymahatelný a zároveň technologicky progresivní.


  1. Typ kybernetického útoku, při kterém hackeři maskují škodlivý prompt jako legitimní, aby získali citlivé informace. ↩︎
  2. Nezisková organizace, která stojí za webovým prohlížečem Firefox. ↩︎
  3. Systém AI, jehož vstupy a operace nejsou viditelné uživateli ani jiné třetí straně. ↩︎