Iniciativa AI dětem

Cyklus debat AI horizonty

AI a právo

Oblast práva reaguje na společenské změny se zpožděním. Jak by se měla proměňovat s příchodem neustále se zlepšujících inteligentních systémů tak, aby společnost prosperovala? Jakým směrem by se mělo posunout licenční právo ve vztahu ke společnosti, zaměstnanosti, distribuci bohatství, ochraně duševního vlastnictví? Jaká jsou pro a proti regulace umělé inteligence (AI aktu) a jak k tomu přistupují země mimo EU?

O debatě

Debata proběhla 11. 4. 2024
Moderoval ji Pavel Kroupa z KROUPALIDÉ
Odkaz na Facebookovou událost
Autorem článku je žurnalista Jiří Labanc

Hosté

Jan je spoluzakladatem a CLO kreativního studia Artiffine a ve své pozici se zaměřuje na právo duševního vlastnictví, komplexní licenční schémata, ochranu dat, compliance a právní agendu, která souvisí s užíváním technologií, zejména AI a blockchain. Ať už v rámci studia Artiffine, nebo specializovaně pro velké advokátní kanceláře, Jan má zkušenosti na národní i mezinárodní úrovni, rozumí si s teoretickou doktrínou (má JUDr. a Ph.D. v oblasti práva IP/IT) i s praktickou aplikací jednotlivých právních řešení na nejrůznější projekty a pro velké brandy (DM, Škoda Auto či Lobkowicz Collection). Jan též hojně přednáší, publikuje a edukuje v daných oblastech, když je spoluzakládajícím členem například Harvard NFT task force.

Dr. Alžběta Solarczyk Krausová je zakladatelkou a ředitelkou společnosti Respectful AI. Zároveň působí jako vedoucí Centra pro výzkum inovací a kyberpráva na Ústavu státu a práva Akademie věd ČR, je předsedkyní expertní platformy a fóra České republiky pro monitorování právních a etických pravidel pro umělou inteligenci, zakladatelkou a předsedkyní konference SOLAIR (Society, Law, Artificial Intelligence and Robotics), externí lektorkou na Univerzitě Karlově, výkonnou redaktorkou časopisu The Lawyer Quarterly a členkou rozkladové komise Úřadu pro ochranu osobních údajů. Působila jako členka Expertní skupiny na odpovědnost a nové technologie pro Evropskou komisi, členka sítě expertů ONE AI při OECD a jako expertka za ČR při vyjednávání návrhu doporučení na etiku umělé inteligence UNESCO. Ve výzkumu se specializuje na právní aspekty umělé inteligence, robotiky, brain-computer interfaces a propojování technologií s biologickým životem.

Linda Kolaříková je absolventkou Právnické fakulty Univerzity Karlovy. Právo studovala také na Aarhus University v Dánsku. Je advokátkou. Ve svém publikační činnosti se Linda věnuje mimo jiné právním aspektům umělé inteligence a nakládání s daty.

Záznam z debaty

Čekají nás díky umělé inteligenci spravedlivější soudy?

„To záleží.“ V duchu opatrného našlapování při definování metafor se nesla v pořadí druhá debata AI horizontů, tentokrát na téma umělé inteligence a práva. Jakmile se po roce 2014 začalo masivně investovat do vývoje této technologie, již zanedlouho se před společností vynořily otázky ohledně právní regulace, odpovědnosti či autorství. Podle účastníků debaty je regulace AI nutná, na její podobě se však shodne málokdo.

„Umělá inteligence dnes proniká do oblastí lidské činnosti, kde už regulace jsou,“ podotýká Jan Zibner, spoluzakladatel kreativního studia Artiffine, kde se ve vedoucí pozici zaměřuje na otázky práva duševního vlastnictví a právní agendy, která souvisí s užíváním technologií – včetně umělé inteligence. „Na druhou stranu jde o natolik specifickou technologii, že si sama o sobě specifické zakotvení zaslouží,“ míní Zibner.

O regulaci AI se jedná v posledních deseti letech, když roku 2014 vizionář a zakladatel společnosti Tesla Elon Musk prohlásil, že umělá inteligence bude nebezpečnější než jaderné zbraně. „Od té doby se do vývoje masivně investuje a vycházejí tematické akademické články,“ říká Alžběta Solarczyk Krausová, ředitelka společnosti Respectful AI a vedoucí Centra pro výzkum inovací a kyberpráva na Ústavu státu a práva Akademie věd ČR. I podle Krausové je tudíž regulace potřebná.

Evropská unie v posledních letech jednala a nakonec i přijala takzvaný AI Act, tedy vůbec první regulaci umělé inteligence na světě. Akt o umělé inteligenci stanovuje několik úrovní rizikovosti: nepřijatelné riziko, vysoké riziko, přijatelné riziko, nízké riziko. Každá kategorie pak bude mít svá vlastní pravidla. Krausová připomíná, že nová regulace je založená na minimalizaci rizik, odvíjí se od potenciálně negativních důsledků, které technologie může mít.

„Je AI Act dobrou regulací?“ ptá se účastníků moderátor diskuze Pavel Kroupa.

„Jde o kompromis, který nebude vyhovovat nikomu,“ odpovídá Krausová. „Původně se mělo za to, že regulace obecně zabije inovace. Nakonec však velká většina firem i přes mnohé připomínky vítá, že budou mít právní jistotu. Evropské firmy kvůli Aktu budou nejspíše ve vývoji AI o trochu pomalejší. Zatímco ale zbytek světa poběží rychle, my poběžíme dále. Firmy, které nebudou respektovat ochranu základních práv a budou vytvářet AI potenciálně nebezpečnou pro uživatele, nepřežijí. Lidé totiž jejich systémy nebudou chtít využívat.“

Linda Kolaříková, která v eticko-technologickém centru CEVAST řeší etické dopady technologií z pohledu práva, s Krausovou souhlasí. „Právo je o hledání kompromisu. Podobný balanc bychom měli hledat i v otázce umělé inteligence,“ tvrdí.

Ostatně stopu už přijatý AI Act nachází ve Spojených státech amerických, kde se umělá inteligence využívá v mnohem větší míře, a tamní zákonodárci se při tvorbě vlastní regulace inspirují přístupem Evropské unie.

Kdo je autor? Vidím, ne?

Veřejná diskuze se často dotýká rovněž autorství. Jan Zibner pojem definuje jako objektivní stav. „Problém je, že v akademické debatě tento stav neznáme, nemáme tedy ani správnou odpověď na otázku, zdali autorství připadá tvůrčí činnosti člověka – protože má dostatečnou blízkost k výstupu umělé inteligence – nebo je to samotná tvůrčí činnost AI.“ V Čechách, alespoň momentálně, umělá inteligence být autorem nemůže, jelikož autorství připadá pouze fyzickým osobám.

Přestože jsou odpovědi minimálně vágní (jelikož při posouzení autorství záleží na míře tvůrčího vstupu) vývojáři a provozovatelé nejrůznějších platforem využívají při práci s AI tři základní scénáře smluvních podmínek.

Podle prvního je autorem uživatel, avšak dává neomezenou licenci provozovateli platformy. Zibner to považuje za alibistickou, přesto nejlepší variantu. „Umožňujete provozovateli, aby podle vašich výsledků mohl například učit své AI modely. Platforma tudíž nikomu nezasahuje do práv, pouze řekne ‚výstupy jsou vaše, my je jen můžeme užívat.‘ Z pozice provozovatele tak máte jistotu, že vás nikdo nebude žalovat.“

Druhá varianta přičítá veškeré autorství platformě, avšak uživatel dostává neomezenou licenci na využívání výstupů nástroje AI. Jedná se o opak prvního scénáře.

Třetí možnost říká, že veškeré výstupy nejsou autorským dílem. S tímto scénářem se ale pojí i komplikace, protože v rámci českých zákonů se duševního vlastnictví není možné vzdát, výsledek musí mít vždy autora.

„Nakonec otázka, zdali něco je či není autorské dílo, přísluší soudu. Ale o tom, jestli byly naplněny znaky autorského díla – že jde o jedinečný výsledek tvůrčí činnosti autora –, rozhodují znalci. Ti mně nicméně při rozhovorech popsali, jak se o znacích autorského díla rozhodují: ‚Vidím, ne?‘ Vypracované znalecké posudky už sice s různými metodami pracují, nicméně v pozadí rozhodovacího procesu je subjektivní pocit,“ popisuje Jan Zibner, jak funguje běžná praxe. Podle Alžběty Krausové se kvůli absenci takzvaných watermarkingů (digitálních vodoznaků) budou jednotlivé případy dostávat do důkazní nouze.

Černobílá spravedlnost v rukou AI

Určit odpovědnost za umělou inteligenci je podle diskutujících odborníků složité, a posuzuje se případ od případu. Podle Zibnera je nutné ztotožnit, vůči komu je žaloba namířena. Upozorňuje, že lidé budou při vymáhání odpovědnosti s největší pravděpodobností obviňovat provozovatele platformy, případně tvůrce umělé inteligence. Krausová nicméně dodává, že vlastní směrnici o odpovědnosti ještě Česká republika nepřijala. „Bude nicméně vázána na již zmíněný AI Act. Poskytovatelé služeb budou muset počítat s riziky, vybírat správná data a předpovídat nejrůznější scénáře, včetně zneužití ze strany uživatele.“ Nakonec však záleží na vyznění podmínek užívání daných služeb a platforem.

V regulaci umělé inteligence hraje také podstatnou roli i etika. Dokonce se o ní začalo uvažovat dřív než o regulaci. Blíže morální chování technologií zkoumá etika strojů (v angl. Machine Ethics), a v mnoha oblastech se především s nástupem generativní umělé inteligence ustanovily etické kodexy.

Otázkám etiky je podmíněna i legislativa. „V Evropě jsme oproti USA zvyklí na poměrně detailní pravidla, která navíc vytváříme předem, počítáme s možným rizikem. V americkém právu se vyskytuje pět principů nakládání s AI, podobně jako u nás jsou založeny zejména na bezpečnosti a účinnosti. Američané s ohledem na své právo nejprve testují, až poté vytvářejí pravidla,“ vysvětluje Alžběta Krausová.

Nepřekvapivě umělá inteligence ovlivní i samotnou práci advokátů. Podle Lindy Kolaříkové mohou nástroje generativní umělé inteligence v budoucnu fungovat jako asistenti a vytvářet a shrnovat kupříkladu zápisy ze soudních jednání. „Obzvlášť důležitá je ale bezchybnost, protože nynější verze modelů mohou halucinovat,“ vysvětluje Kolaříková s tím, že navzdory užitečné pomoci umělé inteligence by konečně rozhodování mělo i nadále připadat lidem. Pokud by se spravedlnost přenechala umělé inteligenci, podle diskutujících odborníků by technologie na případy nahlížela černobíle, na rozdíl od lidí.

Zibner s Kolaříkovou souhlasí: „Jako právníci nebudeme muset celé dny psát základní podání, ale soustředíme se na vymýšlení složitějších konceptů. Tímto směrem se obecně vyvíjí i společnost. Nenahradí nás AI, nahradí nás lidé, kteří umí používat AI,“ potvrzuje otázku moderátora diskuze.