Umělá inteligence (AI) se postupně stává každodenní součástí pracovního prostředí. Automatizované systémy dnes často plánují směny, vyhodnocují výkonnost či nějakým způsobem usnadňují práci zaměstnanců. S rostoucím významem těchto nástrojů vyvstává klíčová otázka, kterou si musí položit každý zaměstnavatel – kdo nese právní odpovědnost za rozhodnutí učiněná umělou inteligencí?
Současný právní rámec odpovědnosti za AI
České a unijní právo se na umělou inteligenci teprve adaptuje, a proto současný český právní řád zatím neobsahuje specifickou úpravu, která by explicitně řešila odpovědnost za rozhodnutí učiněná systémy AI. Tato situace vytváří určité právní vakuum, které je nutné překlenout aplikací obecných právních principů. Pro zaměstnavatele to znamená nutnost vycházet především z obecných ustanovení o odpovědnosti za škodu podle zákoníku práce a občanského zákoníku, případně z ustanovení týkajících se vadného výrobku – softwaru.
V režimu občanského práva se uplatní zejména § 2910 občanského zákoníku o odpovědnosti za škodu způsobenou porušením zákonné povinnosti, případně ustanovení o produktové odpovědnosti, pokud by škoda vznikla v důsledku vady samotného softwaru. Zde je nutné zdůraznit, že občanský zákoník v § 2936 stanoví, že kdo je povinen někomu něco plnit a použije při tom vadnou věc, odpovídá za škodu způsobenou vadou této věci. Toto ustanovení lze bezpochyby aplikovat i na situaci, kdy zaměstnavatel implementuje vadný AI systém, který následně způsobí škodu.
V pracovněprávních vztazích se odpovědnost řídí především ustanoveními zákoníku práce, konkrétně ustanoveními o odpovědnosti zaměstnance, a ustanoveními o odpovědnosti zaměstnavatele. Pokud by např. systém AI chybně vyhodnotil pracovní výkon zaměstnance a na základě toho by mu byla nesprávně snížena odměna, odpovědnost by nesl zaměstnavatel, nikoliv dodavatel AI systému nebo samotný algoritmus.
Evropský právní rámec je v současnosti konkrétnější, a to především díky platnému Aktu o umělé inteligenci, který mj. zavádí klasifikaci systémů AI podle míry rizika a stanovuje specifické povinnosti pro tzv. vysoce rizikové systémy AI. Mezi tyto systémy budou patřit právě i aplikace v oblasti HR a řízení zaměstnanců, jako jsou např. systémy AI určené k použití za účelem náboru nebo výběru potenciálních zaměstnanců. Akt o umělé inteligenci bude u takovýchto systémů AI vyžadovat mj. posouzení rizik, zajištění lidského dohledu a transparentnost algoritmického rozhodování. Pro českého zaměstnavatele to bude znamenat nutnost přizpůsobit své interní procesy těmto požadavkům, jakmile ustanovení o vysoce rizikových systémech AI vstoupí v účinnost.
Principy právní odpovědnosti za rozhodnutí AI
Aby byl právní pohled na odpovědnost za AI v pracovněprávních vztazích jasný, je třeba zdůraznit několik základních principů. Umělá inteligence v současnosti nemá právní osobnost, a proto sama není a v dohledné době nebude subjektem práva. Z toho vyplývá, že AI nemůže nést právní odpovědnost za svá rozhodnutí, bez ohledu na míru její autonomie. Právní odpovědnost tedy musí být přičítána subjektům práva – tedy osobám fyzickým či právnickým. V kontextu pracovněprávních vztahů je to primárně zaměstnavatel, kdo odpovídá za rozhodnutí učiněná systémy AI, které implementoval na svém pracovišti.
Zároveň je na AI z právního hlediska třeba pohlížet jako na nástroj či prostředek, tj. věc, kterou zaměstnavatel používá k plnění svých povinností nebo k výkonu svých práv. Analogicky lze situaci přirovnat k odpovědnosti zaměstnavatele za škodu způsobenou jeho zaměstnancem při plnění pracovních úkolů – stejně jako zaměstnavatel odpovídá za jednání svých zaměstnanců, odpovídá i za „jednání“ AI systémů, které ve své organizaci nasadil.
Samotná míra odpovědnosti zaměstnavatele může být upravena v závislosti na tom, zda vynaložil rozumnou péči při výběru, implementaci a provozu konkrétního systému AI. Pokud zaměstnavatel implementoval systém bez náležitého otestování, bez zajištění lidského dohledu nebo v rozporu s doporučeními poskytovatele daného systému, mohlo by jít o porušení prevenční povinnosti podle občanského zákoníku, což by mohlo vést k přísnějšímu posouzení jeho odpovědnosti. Odpovědnost rovněž může být v určitých případech sdílená mezi více subjektů. Například poskytovatel systému AI může nést odpovědnost za vadný produkt, zatímco zaměstnavatel za jeho nesprávné použití. To otevírá prostor pro potenciální regresní nároky zaměstnavatele vůči poskytovateli, pokud by škoda vznikla v důsledku vady produktu.
Odpovědnost zaměstnance při práci s AI
Zaměstnanec má dle zákoníku práce povinnost plnit pracovní úkoly osobně, svědomitě a řádně podle svých sil, znalostí a schopností a dodržovat právní předpisy a pokyny zaměstnavatele. Tyto povinnosti se nepochybně vztahují i na práci s AI.
Zaměstnanec by měl být řádně proškolen o tom, jak s daným systémem AI pracovat, jaká jsou jeho omezení a v jakých situacích je nezbytné zapojit lidský úsudek. Pokud by zaměstnanec pouze slepě slepě následoval doporučení AI bez kritického posouzení a v důsledku toho by způsobil školu, mohl by nést (spolu)odpovědnost za vzniklou újmu.
Podle zákoníku práce zaměstnanec dále odpovídá zaměstnavateli za škodu, kterou mu způsobil zaviněným porušením povinností při plnění pracovních úkolů. Pokud by tedy zaměstnanec vědomě ignoroval známé limity systému AI nebo jej používal v rozporu s vnitřními předpisy, mohl by být povinen nahradit škodu, která by tím vznikla.
V praxi se tato problematika může projevit například v oblasti náboru, kde personalisté často využívají nástroje AI pro předvýběr kandidátů. Pokud by personalista nekriticky přejímal doporučení AI bez vlastního posouzení a v důsledku toho by docházelo k systematickému vyřazování určitých skupin uchazečů, mohl by se podílet na diskriminačním jednání. Podobně v oblasti hodnocení výkonu by manažer, který by mechanicky přebíral hodnocení generované AI bez zohlednění kontextuálních faktorů, mohl nést spoluodpovědnost za případnou újmu způsobenou zaměstnanci.
Je proto v zájmu zaměstnavatele, aby jasně vymezil odpovědnost zaměstnanců při práci s AI ve vnitřních předpisech, a aby zajistil jejich důkladné proškolení. Tím lze minimalizovat riziko, že zaměstnanec způsobí škodu nesprávným používáním AI, a zároveň chránit zaměstnance před neoprávněným přenosem odpovědnosti za nedostatky samotného AI systému.
Odpovědnost zaměstnavatele vůči zaměstnancům a třetím stranám
Zaměstnavatel, který využívá systémy AI pro rozhodování v personálních otázkách, nese odpovědnost jak vůči svým zaměstnancům, tak potenciálně vůči třetím stranám (např. uchazečům o zaměstnání). Tato odpovědnost má několik rovin.
V rovině pracovněprávní odpovídá zaměstnavatel za škodu způsobenou zaměstnanci v souvislosti s plněním pracovních úkolů. Tato odpovědnost je v zákoníku práce koncipována jako objektivní, tedy bez ohledu na zavinění. Pokud by například systém AI pro hodnocení výkonu chybně vyhodnotil produktivitu zaměstnance a v důsledku toho by zaměstnanec přišel o bonus, zaměstnavatel by odpovídal za vzniklou škodu. Nemohl by se zprostit odpovědnosti poukazem na to, že chyba byla na straně AI, nikoliv na jeho.
Z hlediska antidiskriminačního práva nese zaměstnavatel odpovědnost za zajištění rovného zacházení a zákazu diskriminace. Pokud by systém AI systematicky znevýhodňoval určité skupiny zaměstnanců či uchazečů (např. na základě pohlaví, věku či rasy), zaměstnavatel by porušoval antidiskriminační zákon, bez ohledu na to, že diskriminace nebyla záměrná, ale byla důsledkem algoritmu. Judikatura Nejvyššího soudu i Soudního dvora EU přitom jasně stanoví, že i nepřímá diskriminace je právně postižitelná.
Vůči uchazečům o zaměstnání by mohl zaměstnavatel nést odpovědnost zejména v případě, kdy by automatizovaný náborový systém vedl k diskriminačním praktikám. Uchazeč by mohl požadovat odškodnění za nemajetkovou újmu podle antidiskriminačního zákona. Proto je zcela nezbytné, aby zaměstnavatel zajistil, že systémy AI používané v náborovém procesu jsou pravidelně testovány na případné zaujetí, a že finální rozhodnutí o přijetí či nepřijetí uchazeče činí vždy fyzická osoba s možností přezkoumat a případně korigovat doporučení systému AI.
Zaměstnavatel by měl dbát také na soulad systému AI s povinnostmi podle dalších právních předpisů. Např. Obecné nařízení o ochraně osobních údajů (GDPR) obsahuje specifická ustanovení týkající se automatizovaného rozhodování, která mají přímý dopad na využívání AI v pracovněprávních vztazích. Článek 22 GDPR stanoví, že subjekt údajů má právo nebýt předmětem žádného rozhodnutí založeného výhradně na automatizovaném zpracování, které má pro něj právní účinky nebo se ho obdobným způsobem významně dotýká. V kontextu zaměstnávání to znamená, že zásadní rozhodnutí týkající se zaměstnanců (přijetí do zaměstnání, ukončení pracovního poměru, povýšení, významné změny odměňování apod.) by neměla být činěna výhradně na základě algoritmu bez jakéhokoliv lidského zásahu, až na výjimky uvedené v tomto nařízení.
Pro zaměstnavatele je v této oblasti zásadní právně ošetřit vztah s poskytovatelem či distributorem systému AI. Vhodně nastavená smlouva může pomoci alokovat rizika a vymezit odpovědnost každé smluvní strany. Smlouva by zároveň měla obsahovat jasnou specifikaci funkcionalit a parametrů daného systému, včetně garantované míry přesnosti či spolehlivosti.
Dodavatel by měl být mj. smluvně zavázán k průběžným aktualizacím a opravám chyb systémů. Dále je vhodné ze shora uvedených důvodů zahrnout ve smlouvě také ustanovení o odpovědnosti za škodu, včetně případné limitace náhrady škody. Pro zaměstnavatele je rovněž klíčové zajistit, aby dodavatel nesl odpovědnost za soulad AI systému s právními předpisy, zejména s ohledem na ochranu osobních údajů a zákaz diskriminace. V ideálním případě by smlouva měla obsahovat prohlášení dodavatele, systém AI je v souladu s požadavky podle Aktu o umělé inteligenci, jako je např. kvalita trénovacích dat.
Závěr
Právní odpovědnost za rozhodnutí systémů AI v pracovněprávních vztazích představuje komplexní problematiku, která zasahuje do několika právních oblastí. Ačkoliv dosud neexistuje specifická právní úprava, která by tuto oblast komplexně regulovala, lze při posuzování odpovědnosti vycházet z obecných právních principů a existující legislativy.
Z analýzy jednoznačně vyplývá, že primárním nositelem odpovědnosti za rozhodnutí učiněná systémy AI je zaměstnavatel, který se nemůže zprostit své odpovědnosti poukazem na automatizované rozhodnutí. AI je právně považována za nástroj v rukou zaměstnavatele, nikoli za samostatný subjekt práva. Tato skutečnost klade na zaměstnavatele značné nároky, zejména s ohledem na zajištění souladu implementovaných systémů s právními předpisy.
Zaměstnavatelé, kteří již implementovali nebo mají v plánu implementovat AI, by proto měli aktualizovat své vnitřní předpisy a pracovní smlouvy tak, aby reflektovaly využívání AI. Měly by být jasně vymezeny pravomoci a odpovědnosti zaměstnanců při práci s AI a stanoveny postupy pro schvalování automatizovaných rozhodnutí. Zároveň by měly veškeré systémy AI, které mají významný dopad na zaměstnance nebo uchazeče podléhat lidskému dohledu, a žádné zásadní rozhodnutí by nemělo být učiněno výhradně na základě automatizovaného výstupu.
