Generativní umělá inteligence se stává stále významnější součástí technologického a kreativního prostředí. Právě rozmach nástrojů generativní umělé inteligence jako ChatGPT nebo Copilot výrazně ovlivnil finální a schválené znění Aktu o umělé inteligenci (dále také jako „Akt“), který přináší významné změny v regulaci těchto nástrojů.
Nejzásadnější změnou je klasifikace těchto systémů jako tzv. obecné modely umělé inteligence (general-purpose AI models – GPAI1). V tomto článku Vám představíme, proč je tato změna zásadní a jaké může mít následky.
Klasifikační pravidla a povinnosti poskytovatelů
Krom toho, že Akt vymezil generativní umělou inteligenci jako GPAI, dělí ji dále na GPAI a tzv. GPAI se systémovým rizikem. Proto, aby GPAI byla klasifikována jako „systémově riziková“, musí splňovat některou z těchto podmínek:
- má schopnosti s vysokým dopadem vyhodnocené na základě vhodných technických nástrojů a metodik, včetně ukazatelů a referenčních hodnot;
- na základě rozhodnutí Komise, z moci úřední nebo na základě kvalifikované výstrahy vědecké komise má s ohledem na určitá kritéria kapacity nebo dopady rovnocenné těm, které jsou stanoveny v písmenu a).
S touto kategorizací jsou pochopitelně spojena rovněž nová práva a povinnosti kladená jak na poskytovatele, tak uživatele (obecnými povinnostmi poskytovatelů jsme se zabývali zde).
Na poskytovatele GPAI nejsou kladeny zvlášť přísné požadavky, musí však např. vypracovat a aktualizovat technickou dokumentaci modelu umělé inteligence nebo vypracovat a zveřejnit dostatečně podrobné shrnutí obsahu používaného pro vývoj GPAI. Významná je však povinnost poskytovatelů stanovit politiku respektující práva Unie v oblasti autorského práva a práv souvisejících, a zejména pro určení a dodržování výhrady práv vyjádřené podle směrnice (EU) 2019/790 o autorském právu a právech s ním souvisejících na jednotném digitálním trhu a o změně směrnic 96/9/ES a 2001/29/ES (dále jen „Směrnice“), a to i prostřednictvím nejmodernějších technologií.
Poskytovatelé GPAI se systémovým rizikem pak musí kromě shora uvedených povinností např. zajistit odpovídající úroveň ochrany kybernetické bezpečnosti nebo posuzují a zmírňují možná systémová rizika daného GPAI.
Data mining a přeshraniční použitelnost
Podle Aktu představuje kompilování datasetů a trénování modelů umělé inteligence na těchto datasetech vytěžování dat (data mining2) ve smyslu Směrnice a podléhá tak jejím podmínkám a omezením, jako např. nárok na spravedlivou odměnu autorů děl.
Obecně je totiž data mining bez souhlasu autorů vytěžovaných děl zakázán, s výjimkou vědeckého nebo komerčního vytěžování dle Směrnice. V takovém případě je data mining možný, pokud má vytěžující subjekt „zákonný přístup“ k datům a zároveň nositelé práv nezakázali použití svých děl pro data mining ve strojově čitelném formátu. Autoři tak mají možnost tzv. „opt-outu“, který způsobí, že jejich data nesmí být vytěžována ani použita k trénování modelů umělé inteligence, jelikož by se jednalo o zásah do jejich výhradních práv.
Co se týče působnosti samotného Aktu, je zde Evropská unie poněkud nekompromisní. Už v preambuli se totiž uvádí, že stanovená pravidla by se měla na poskytovatele systémů umělé inteligence vztahovat nediskriminačním způsobem nehledě na to, zda jsou usazeni v EU či ve třetí zemi a pouze na unijním trhu působí. Jinými slovy, poskytovatelé musí respektovat unijní právní úpravu bez ohledu na jurisdikci samotného trénování modelů umělé inteligence.
Cílem by mělo být zajistit rovné podmínky, aby poskytovatelé nezískali konkurenční výhodu trénováním modelů umělé inteligence v jurisdikcích s méně restriktivními pravidly. Jednou z mnoha otázek tedy je, jak postupovat v případě, kdy byla umělá inteligence trénovaná na chráněných datech před účinností Aktu?
Až budoucnost ukáže, jak v takovýchto případech postupovat a zda nebude mít přísná regulace spíše opačný vliv a poskytovatelé se nezaměří na vývoj umělé inteligence mimo EU.
Závěr
Generativní umělá inteligence představuje revoluční technologii, která mění způsob, jakým vytváříme a konzumujeme obsah. Současně však vyvolává řadu právních otázek a výzev, a to zejména v oblasti etiky, ochrany osobních údajů či duševního vlastnictví.
Akt o umělé inteligenci, přijatý Evropskou unií, zavádí významné změny, které se přímo dotýkají těchto technologií, a to zejména prostřednictvím klasifikace těchto nástrojů jako obecné modely umělé inteligence. Jak se tyto nová pravidla osvědčí v praxi a zda budou schopna vyvážit ochranu osob s technologickým vývojem však teprve uvidíme.
- Model AI, včetně případů, kdy je tento model AI trénován velkým množstvím dat s využitím vlastního dohledu ve velkém měřítku, který vykazuje významnou obecnost a je schopen kompetentně plnit širokou škálu různých úkolů bez ohledu na způsob, jakým je daný model uveden na trh, a který lze začlenit do různých navazujících systémů nebo aplikací, s výjimkou modelů AI, které se používají pro činnosti výzkumu, vývoje nebo činnosti zaměřené na tvorbu prototypů před jejich uvedením na trh. ↩︎
- Jakákoli automatizovaná technika analýzy, jejímž cílem je analyzovat text a data v digitální podobě za účelem získání informací a která zahrnuje mimo jiné vzory, tendence a souvztažnosti. ↩︎