AK Kalabus

V posledních letech jsme svědky rychlého rozvoje umělé inteligence (AI), která se postupně stává nedílnou součástí našich životů. AI najdeme v oblastech jako je tvorba umění, pokročilá data analytika, medicína a doprava. Tento pokrok přináší inovace a efektivitu, ale zároveň také vyvolává otázky týkající se odpovědnosti za škody, které systémy AI mohou způsobit. Stávající právní rámec není vždy schopen efektivně reagovat na nové výzvy, což zvyšuje potřebu právní regulace.

Jednou z nejdiskutovanějších oblastí právní úpravy je právě mimosmluvní občanskoprávní odpovědnost za škodu způsobenou systémy AI. Evropská unie na tuto problematiku reaguje směrnicí o přizpůsobení pravidel mimosmluvní občanskoprávní odpovědnosti umělé inteligenci (dále jen „Směrnice“). Tato Směrnice je v tuto chvíli projednávaná Radou EU, a má za cíl nastavit jednotná pravidla pro řešení škod způsobených AI a přizpůsobit tradiční koncepty občanskoprávní odpovědnosti potřebám digitální doby, a my se vám ji pokusíme v tomto článku blíže představit.

Rizika spojená s AI a právní důsledky

Některé systémy AI mohou vážně ovlivnit základní práva fyzických osob, jako je právo na život, rovné zacházení nebo fyzickou nedotknutelnost. Vysoká rizika vyplývající z používání AI proto vyžadují, aby byla stanovena jasná pravidla pro identifikaci odpovědných subjektů a určení příčinné souvislosti mezi „chováním“ AI a způsobenou škodou. Evropská komise přitom upozorňuje na skutečnost, že současná vnitrostátní legislativa týkající se náhrady škody není pro AI dostatečná. Jedním z důvodů je skutečnost, že např. v situaci, kdy systém AI autonomně jedná na základě vstupních dat a způsobí tím škodu na majetku či zdraví, AI najednou vstupuje mezi jednání a vznik škody, a tak může být prokazování zavinění obtížné. Směrnice proto poskytuje zjednodušení tohoto procesu tím, že zavádí vyvratitelné domněnky a povinnosti poskytování informací o systémech AI.

Jedním z klíčových problémů v rámci odpovědnosti za škodu způsobenou AI je otázka zavinění. Tradičně musí poškozený prokázat, že škoda byla způsobena zaviněným jednáním konkrétního subjektu. U systémů AI, které se často rozhodují autonomně a na základě velkého množství dat, však může být obtížné jednoznačně určit, kdo konkrétně nese odpovědnost. Může jít např. o situace, kdy AI generuje nesprávné výsledky nebo rozhodnutí na základě chybných vstupních dat, nebo kdy dojde k technické závadě systému, která způsobí škodu.

Typickým příkladem může být autonomní vozidlo, které se na základě analýzy situace na silnici rozhodne vyhnout překážce, avšak způsobí při tom kolizi s jiným vozidlem. Otázkou zůstává, kdo v takovém případě ponese odpovědnost – výrobce, vlastník nebo provozovatel vozidla?

Směrnice navrhuje postupy, které umožní zjednodušit odpovědnostní mechanismy tím, že bude stanoveno, kdo a za jakých okolností je povinen nést odpovědnost za škodu. V takovém případě vozidla by odpovědnost podle Směrnice mohla ležet primárně na provozovateli vozidla, tedy na osobě, která vozidlo využívá nebo jej spravuje. Provozovatel by však nebyl považován za odpovědného za škodu, pokud by prokázal, že škoda byla způsobena faktory mimo jeho kontrolu (například selháním softwaru, za které nese odpovědnost výrobce), a odpovědnost by tak mohla přejít na výrobce autonomního vozidla, resp. poskytovatele systému AI.

Zpřístupnění důkazů a zavedení vyvratitelných domněnek

Směrnice také zavádí mechanismy, které mají poškozeným usnadnit prokázání nároku na náhradu škody. Jedním z těchto mechanismů je možnost požadovat zpřístupnění důkazů o fungování vysoce rizikových systémů AI (kterým jsme se blíže věnovali např. zde). Pokud se AI podílí na vzniku škody, soud je oprávněn na žádost žalobce nařídit zpřístupnění relevantních informací, aby bylo možné zjistit, kdo za škodu nese odpovědnost.

Tím se zmírňuje důkazní břemeno poškozeného, který by jinak musel prokázat komplexní technické aspekty fungování AI. Důležité je však zmínit, že žalobce musí před podáním žádosti k soudu předložit skutečnosti a důkazy dostatečné k tomu, aby podpořily věrohodnost nároku na náhradu škody, a zároveň musí žalobce učinit veškeré přiměřené pokusy o získání příslušných důkazů od žalovaného. V případě, kdy žalobce nezpřístupní požadované důkazy, platí domněnka, že žalovaný nesplnil příslušnou povinnost řádné péče.

Dalším důležitým prvkem je zavedení vyvratitelných domněnek o příčinné souvislosti. V běžných případech musí žalobce prokázat, že konkrétní jednání škůdce vedlo ke vzniku škody. U AI je však tento proces značně složitý, neboť systém často pracuje autonomně a na základě složitých algoritmů, jejichž fungování není vždy transparentní. Směrnice proto umožňuje, aby byla zavedena domněnka o příčinné souvislosti mezi zaviněním žalovaného a škodou způsobenou AI, pokud jsou kumulativně splněny následující podmínky:

  • žalobce prokázal zavinění žalovaného spočívající v nedodržení povinnosti řádné péče stanovené unijním nebo vnitrostátním právem, jejímž účelem je ochrana před vzniklou škodou;
  • dle okolností daného případu lze považovat za pravděpodobné, že zavinění mělo dopad na jednání systému AI;
  • žalobce prokázal, že jednání systému AI vedlo ke vzniku škody.

Provozovatel systému AI pak bude muset naopak prokázat, že jeho systém nebyl příčinou škody, čímž se výrazně usnadní postavení poškozeného v případném soudním sporu.

Vysoká rizikovost systémů AI a jejich právní dopad

Jak jsme již zmínili, Směrnice rozlišuje mezi vysoce rizikovými systémy AI a ostatními systémy AI. Směrnice odvozuje vysokou rizikovost od možnosti způsobit závažné škody na majetku či zdraví nebo ohrozit práva jednotlivců. Vysoká rizikovost se často pojí s oblastmi, kde systémy AI mohou mít přímý dopad na fyzickou integritu osob nebo na závažné majetkové škody. Vysoce rizikové systémy, jako jsou autonomní vozidla nebo lékařské diagnostické systémy, mohou způsobit závažné škody na majetku nebo zdraví, a proto se na ně vztahují přísnější pravidla. Naopak méně rizikové systémy, jako jsou například personalizované reklamní systémy, jsou z právního hlediska méně problematické.

Právě u vysoce rizikových systémů je proces zpřístupnění důkazů a aplikace vyvratitelných domněnek nejvýznamnější. Soud však u těchto systémů neuplatní domněnku příčinné souvislosti v případě, kdy žalovaný prokáže, že žalobce disponuje odbornými znalosti a má k dispozici dostatečné důkazy, aby mohl příčinnou souvislost prokázat běžným způsobem. Na druhou stranu u ostatních systémů AI se domněnka příčinné souvislosti uplatní pouze v případech, kdy soud vyhodnotí standardní prokázaní příčinné souvislosti za příliš obtížné. Směrnice tak těmito mechanismy vyvažuje různou míru rizika spojenou s různými druhy systémů AI.

Vysoce rizikové systémy AI

Co si vlastně pod pojmem „vysoce rizikový systém AI“ představit? Jedná se o jeden z klíčových pojmů Aktu o umělé inteligenci. Podle Aktu se za vysoce rizikové považují systémy, které jsou určeny k použití jako bezpečnostní komponenty produktů, na něž se vztahují harmonizační právní předpisy EU, nebo systémy uvedené v příloze III Aktu (např. systémy používané v kritické infrastruktuře, ve zdravotnictví nebo při náboru pracovníků).

Vysoce rizikové systémy podléhají přísným pravidlům, včetně povinnosti zavést systém řízení rizik, který je kontinuálním procesem probíhajícím během celého životního cyklu systému. Tento proces zahrnuje identifikaci, analýzu, odhad a řízení rizik. Systémy musí být rovněž odolné vůči kybernetickým útokům a chybám.

Důsledky pro poskytovatele

Důsledky pro poskytovatele

Poskytovatel= systémů AI musí být v případě vstupu Směrnice v platnost obezřetní a zajistit, aby jejich systémy AI byly v souladu nejen s požadavky na náležitou péči podle této směrnice, ale také dalšími relevantními právními předpisy, např. s požadavky stanovenými Aktem o umělé inteligenci. Směrnice je jasným signálem, že technologie AI s sebou nesou značnou odpovědnost, a provozovatelé by proto měli podniknout všechny možné kroky k minimalizaci rizik spojených s jejich používáním.

V budoucnu lze očekávat další zpřísnění právní úpravy AI, zejména v oblasti ochrany spotřebitelů a prevence škod. Technologický vývoj v oblasti AI jde rychle kupředu, a tak je pravděpodobné, že právní rámec bude muset být pravidelně aktualizován, aby reflektoval nové výzvy a rizika.

Závěr

Odpovědnost za škodu způsobenou systémy AI představuje nový a složitý právní problém. Směrnice o odpovědnosti za AI přináší potřebné změny, které mají usnadnit prokazování škod a ochranu práv poškozených. Díky těmto opatřením by mělo dojít k lepší ochraně jednotlivců a zároveň ke snížení právních nejistot spojených s odpovědností za technologie AI. S