AK Kalabus

Syntetický obsah, vytvořený systémem umělé inteligenci (AI), představuje významný technologický posun, který umožňuje generování realistických obrazových, zvukových, textových a video materiálů. Tento obsah, zejména tzv. „deep fakes“, však přináší rizika zneužití např. k šíření dezinformací, poškození osobní pověsti nebo k podvodům. Evropská unie se snaží minimalizovat tato rizika prostřednictvím Aktu o umělé inteligenci (dále jen „Akt“), který zahrnuje povinnosti spojené se zvyšováním transparentnosti a označováním syntetického obsahu.

Co je to deep fake?

Deepfake je technologie, která pomocí algoritmů strojového učení umožňuje vytvářet realistický, ale falešný digitální obsah, převážně videa, která jsou záměrně manipulována tak, aby působila autenticky.

Akt o umělé inteligenci definuje deep fake jako obrazový, zvukový nebo video obsah vytvořený nebo manipulovaný umělou inteligencí, který se podobá existujícím osobám, objektům, místům subjektům či událostem a který by se dané osobě mohl nepravdivě jevit jako autentický nebo pravdivý.

Problematika syntetického obsahu

V úvodu článku jsme zmínili, že syntetický obsah může být zneužit mnoha způsoby. Z důvodu postupného technologického pokroku a jednoduchého přístupu k systémům AI, které jsou schopny tento obsah generovat, je pro běžného uživatele čím dál jednodušší vygenerovat obsah, který se navenek jeví jako autentický. Takový obsah, např. falešná videa s celebritami či politiky, mohou být využit k podvodným účelům, jako je spear-phishing1 nebo ovlivňování veřejného mínění.

Dalším problémem je nízká míra transparentnosti, jelikož uživatelé zveřejňující syntetický obsah ve většině případů neuvádí, že byl tento obsah vytvořen systémem AI. Nízká míra transparentnosti představuje problém např. v oblasti grafického designu, kde se objednatel určitého díla může domnívat, že dílo bylo vytvořeno umělcem, resp. fyzickou osobou, přestože bylo vytvořeno systémem umělé inteligence.

Povinnost transparentnosti

Kvůli složitosti odlišit syntetický obsah od autentického, bylo pro zákonodárce důležité v rámci Aktu stanovit tzv. povinnost transparentnosti. Akt totiž stanovuje, že poskytovatelé systémů AI, včetně obecných systémů AI, vytvářejících syntetický zvukový, obrazový, video nebo textový obsah, zajistí, aby výstupy systému AI byly označeny ve strojově čitelném formátu a zjistitelné jako uměle vytvořené nebo manipulované. Poskytovatelé těchto systémů zároveň musí v souladu s Aktem zajistit, aby předmětná technická řešení byla účinná, interoperabilní, a spolehlivá, což lze učinit technikami jako jsou vodoznaky, identifikace metadat nebo kryptografické metody. Techniku metadat využívá např. společnost OpenAI, naopak společnosti Meta Platforms, Inc. a X Holdings Corp. označují syntetický obsah formou štítku „Vytvořeno s AI“.

Zároveň musí subjekty zavádějící systém AI, který vytváří obrazový, zvukový nebo video obsah představující deep fake nebo s ním manipuluje, zveřejnit, že obsah byl uměle vytvořen nebo s ním bylo manipulováno. Tato povinnost se však nevztahuje na případy povolené zákonem, například pro účely vyšetřování a stíhání trestných činů.

Povinnost transparentnosti je v případě, že je syntetický obsah součástí zjevně uměleckého, tvůrčího, satirického, fiktivního či obdobného díla nebo programu, omezena na zveřejnění existence takového vytvořeného nebo zmanipulovaného obsahu vhodným způsobem, který nebrání zobrazení nebo užívání díla.

Zároveň jsou poskytovatelé a zavádějící subjekty povinné poskytnout dotčeným fyzickým osobám informaci, že je obsah vytvořen systémem AI jasným a rozlišitelným způsobem nejpozději v době první expozice.

Stav právní regulace

Povinnosti spojené s transparentností syntetického obsahu nabydou účinnosti až 2. srpna 2026. Ačkoli v současné době neexistuje účinná vnitrostátní právní úprava pro tuto oblast, může být povinnost označovat obsah vytvořený systémem AI upravena v rámci smluvní dokumentace jednotlivých systémů AI či provozovatelů příslušných aplikací nebo internetových platforem.

Např. společnost OpenAI ve svých podmínkách používání systému ChatGPT (kterému jsme se blíže věnovali zde) uvádí následující:

„Co nemůžete dělat. Naše služby nesmíte používat k žádné nezákonné, škodlivé nebo zneužívající činnosti. Například máte zakázáno:

[…]

„prezentovat, že výstup byl vytvořen člověkem, i když tomu tak není.“

V zásadách sdílení a zveřejňování zase uvádí, že obsah musí být označen jako vytvořen umělou inteligencí, a to způsobem, který by žádný uživatel nemohl rozumně přehlédnout nebo špatně pochopit.

Výzvy v právní regulaci

Ačkoli Akt o umělé inteligenci představuje významný krok k regulaci deepfake obsahu, některé výzvy přetrvávají. Jednou z otázek je jasné vymezení odpovědnosti za škody způsobené syntetickým obsahem. Akt sice představil právní rámec pro transparentnost, ale praxe může vyžadovat další úpravy, například ve formě zvláštních předpisů pro jednotlivé sektory, jako je mediální průmysl nebo sociální sítě.

Další výzvou je rychlé tempo vývoje deepfake technologií, které může předbíhat právní regulaci. Je proto nezbytné, aby legislativa zůstávala flexibilní a schopná reagovat na nové hrozby a technické možnosti, které generativní AI přináší.

Závěr

Regulace syntetického obsahu v rámci Aktu o umělé inteligenci reflektuje potřebu EU chránit veřejný prostor a fyzické osoby před zneužitím technologií AI. Povinnosti transparentnosti pro poskytovatele a zavádějící subjekty představují jeden z nástrojů, jejichž cílem je zajistit vysokou úroveň ochrany práv fyzických osob a zároveň chránit před škodlivými účinky systémů AI.


  1. Cílený phishingový útok, kdy si útočník dopředu získá veškeré dostupné informace o cílové skupině či jednotlivci a vytvoří phishingovou zprávu přesně na míru.
    ↩︎