AK Kalabus

Umělá inteligence (AI) se s postupem času stává nedílnou součástí moderní společnosti, ovlivňující širokou škálu odvětví od zdravotnictví přes dopravu až po finanční služby. S rostoucím nasazením systémů AI vyvstává otázka právní odpovědnosti za škodu způsobenou těmito systémy. Evropská unie se v proto rámci své regulace dlouhodobě zabývá problematikou odpovědnosti za škodu způsobenou AI. Jedním z hlavních legislativních nástrojů, který měl tuto oblast upravovat, byla navrhovaná směrnice o odpovědnosti za umělou inteligenci, kterou Evropská komise představila v září 2022.

Tento legislativní návrh měl zajistit harmonizaci pravidel pro mimosmluvní občanskoprávní odpovědnost za škody způsobené systémy AI. Proces jeho přijetí se však zastavil, a nyní byla debata o jakákoliv diskuse o jeho přijetí zcela ukončena a Evropská komise rozhodla o jeho stažení z projednávání. V tomto článku se zabýváme současným stavem právní úpravy odpovědnosti za AI, důvody pro zastavení směrnice a možnými budoucími změnami.

Původní cíle směrnice

Návrh Směrnice o odpovědnosti za umělou inteligenci byl zveřejněn Evropskou komisí v září 2022 jako součást širšího legislativního balíčku, který zahrnoval také Akt o umělé inteligenci (kterému se blíže věnujeme např. zde) a novou směrnici o odpovědnosti za vadné výrobky. Směrnice o odpovědnosti za AI měla za cíl upravit pravidla pro mimosmluvní občanskoprávní odpovědnost za škodu způsobenou systémy AI a reagovat na výzvy spojené s těmito technologiemi.

Evropská komise návrh odůvodnila tím, že současná vnitrostátní pravidla odpovědnosti, zejména ta, která jsou založena na zavinění, nejsou vhodná pro řešení nároků na náhradu škody způsobené produkty a službami založenými na AI. Podle těchto pravidel musí poškození prokázat protiprávní jednání nebo opomenutí osoby, která škodu způsobila. Specifické vlastnosti AI, včetně její složitosti, autonomie a neprůhlednosti (tzv. black box1), mohou poškozeným ztížit nebo prodražit identifikaci odpovědné osoby a prokázání splnění požadavků pro úspěšné uplatnění nároku na náhradu škody.

Podle původního návrhu by odpovědnost provozovatelů systémů AI stále podléhala tradičním pravidlům odpovědnosti podle vnitrostátních právních předpisů členských států, která obvykle vyžadují zavinění ve formě úmyslu nebo nedbalosti. To znamená, že poškození by musely prokazovat nejen existenci škody, ale také příčinnou souvislost mezi jednáním provozovatele systému AI a vznikem škody.

Směrnice proto stanovila mj. dva klíčové nástroje na ochranu osob poškozených AI:

Vyvratitelná domněnka příčinné souvislosti – vzhledem ke složitosti některých systémů AI mělo být v určitých situacích presumováno, že ke vzniku škody vedlo porušení povinností stanovených jinými právními předpisy (např. Aktem o umělé inteligenci). K uplatnění vyvratitelné domněnky mělo dojít za splnění všech těchto podmínek žalobce prokázal zavinění žalovaného spočívající v nedodržení řádné péče stanovené předpisy, lze považovat za pravděpodobné, že zavinění mělo vliv na výstup AI, a pokud žalobce prokáže, že výstup AI vedl ke vzniku škody. Pokud tedy systém AI (ne)generoval výstupy, které způsobily škodu, a jeho provozovatel nedodržel platná pravidla, právě on by nesl důkazní břemeno, aby prokázal, že k této škodě nedošlo v důsledku jeho pochybení.

Povinnost zpřístupnit důkazy – tento mechanismus měl reagovat na zmíněný problém neprůhlednosti systémů AI. Poškozené osoby by mohly požadovat, aby provozovatelé vysoce rizikových systémů AI poskytli relevantní informace o fungování těchto systémů. Tato povinnost by umožnila identifikaci možných nároků a odpovědných subjektů a usnadnila by důkazní řízení v soudních sporech.

Kritika a legislativní překážky

Navzdory původním ambicím Evropské komise narazila směrnice o odpovědnosti za AI na značnou kritiku ze strany členských států, odborné veřejnosti i samotných poslanců Evropského parlamentu. Hlavními důvody této kritiky byly:

  • Dvojí regulace a překryv s jinými právními předpisy – kritici upozorňovali, že mnoho aspektů, které měla směrnice upravovat, je již částečně upraveno jinými předpisy, zejména novou směrnicí o odpovědnosti za vadné výrobky a Aktem o umělé inteligenci. Tím vznikala obava, že by směrnice mohla způsobit právní nejistotu a zbytečně komplikovat právní úpravu odpovědnosti v EU.
  • Nejednotné přijetí mezi členskými státy – některé státy vyjádřily pochybnosti o potřebě směrnice, zejména ty, jejichž vnitrostátní právní řády již obsahovaly mechanismy odpovědnosti za škodu způsobenou softwarem. Kritika zaznívala i ohledně toho, že zavedení vyvratitelné domněnky příčinné souvislosti by mohlo vést k přenesení příliš velké důkazní zátěže na provozovatele systémů AI.
  • Obavy z negativního dopadu na inovace – někteří zákonodárci a zástupci technologického sektoru argumentovali, že zavedení přísnějších odpovědnostních pravidel by mohlo vést k právní nejistotě a zpomalení inovací. Podle nich by zvýšená regulace mohla přimět poskytovatele systémů AI ke stažení svých technologií z evropského trhu nebo k omezení jejich funkcionalit.

Evropská komise proto v roce 2025 v rámci svého nového pracovního programu rozhodla o ukončení legislativního procesu této směrnice s odůvodněním, že neexistuje politická shoda na její konečné podobě.

Tento krok kritizoval například německý europoslanec Axel Voss, podle něhož byla směrnice nezbytným „ex post nástrojem“, který by zajišťoval odpovědnost provozovatelů systémů AI, pokud způsobí škodu. Zároveň označil zastavení legislativního procesu za ústupek technologickým společnostem, které se obávají odpovědnosti za škody způsobené jejich systémy AI. Na druhou stranu se stažení směrnice setkalo také s pozitivními ohlasy, jelikož dle některých byla směrnice nadbytečná, a zároveň lze na tomto přístupu údajně vidět ochotu Evropské unie zmírnit regulaci za účelem podpory inovací.

Možné budoucí změny

Navzdory stažení původního návrhu směrnice zůstává otázka právní odpovědnosti za škody způsobené systémy AI stále aktuální. Před ukončením legislativního procesu provedla Výzkumná služba evropského parlamentu (EPRS) předběžnou dopadovou studii, ve které došla k závěru, že pravidla pro odpovědnost za AI jsou stále potřebná, avšak v modifikované podobě. Zároveň tato studie navrhuje několik potenciálních změn původního návrhu:

  • Přeměnu směrnice na nařízení – povinnosti by měly být aplikovatelné ve všech členských státech bez nutnosti implementace do vnitrostátních právních řádů, což by odstranilo rozdíly mezi jednotlivými právními úpravami.
  • Rozšíření působnosti na software obecně – nový režim by neměl platit pouze pro systémy AI, ale i pro veškerý software, který může způsobit škodu, čímž by se přiblížil nové směrnici o odpovědnosti za výrobky. Jelikož je však nová směrnice o odpovědnosti za výrobky již platná, je otázkou, zda spíše nebude novelizována a doplněna o specifickou kategorii systémů AI.
  • Stanovení přímé příčinné souvislosti mezi neplněním povinnosti lidského dohledu a škodou – pokud by poskytovatel systému AI nebo jeho provozovatel nedodržel povinnost lidského dohledu podle Aktu o umělé inteligenci, vzniklá škoda by se měla automaticky presumovat jako důsledek tohoto pochybení.
  • Spoluzodpovědnost podél dodavatelského řetězce – studie předpokládá společnou odpovědnost mezi jednotlivými subjekty v řetězci, včetně poskytovatelů, provozovatelů, dovozců a zavádějících subjektů tyto systémy a vývojářů.
  • Přesnější definice systémů AI včetně obecných modelů AI – studie doporučuje přesnější vymezení systémů AI, na které se směrnice vztahuje, a to v souladu s Aktem o umělé inteligenci. Zároveň navrhuje, aby obecné modely AI (např. ChatGPT) byly výslovně zahrnuty do této směrnice. Účelem je, aby i tyto pokročilé systémy AI podléhaly jasným pravidlům odpovědnosti.

Závěr

Ačkoliv byla směrnice o odpovědnosti za umělou inteligenci stažena z projdnávání, diskuse o odpovědnosti za AI na unijní úrovni neskončila. Navzdory zastavení legislativního procesu však pokračují v Evropském parlamentu diskuse o tom, jak nejlépe tuto problematiku upravit. Zákonodárci ve Výboru pro vnitřní trh a ochranu spotřebitelů Evropského parlamentu hlasovali pro pokračování práce na této regulaci a plánují další jednání a analýzy s cílem navrhnout efektivní a harmonizovaný právní rámec, který by chránil práva poškozených a zároveň podporoval inovace v oblasti AI. Současné právní prostředí však zůstává prozatím nejisté, a regulaci této oblasti nelze v dohledné budoucnosti očekávat.


  1. Systém, zařízení nebo program umělé inteligence, který poskytuje užitečné informace, aniž by prozradil jakékoli informace o svém vnitřním fungování. ↩︎