Iniciativa AI dětem

Generic filters
Exact matches only
Search in title
Search in content
Search in excerpt

Obecný úvod do umělé inteligence — kapitola 9

Etika umělé inteligence

Etika umělé inteligence je poměrně mladá vědní disciplína, její význam však neustále roste. Jedním z hlavních důvodů je právě to, že za nás stále více úkolů a rozhodnutí vykonávají stroje.

Etika z tradičního hlediska

Etika se primárně věnuje hodnocení lidského jednání. Zajímá ji, zda ho můžeme popsat jako správné, či nesprávné. Kromě jednání se ale také zaměřuje na samotné jednající, tedy (opět primárně) na nás lidi, a ptá se, jaké vlastnosti si dobrými či špatnými skutku vytváříme (říkáme jim ctnosti a neřesti) a také jaké rozumové a morální vlastnosti bychom měli mít, abychom se dokázali dobře orientovat v situacích každodenního rozhodování a volili morálně správně.

Morálka

Kromě slova „etika“ také používáme výraz „morálka“. Oba výrazy mají stejný slovní původ — první pochází z řečtiny, druhé z latiny, jejich význam však stejný není. Etikou chápeme vědeckou disciplínu, součást filosofie, která kriticky hodnotí principy a normy správného jednání, zatímco pod morálkou bychom si měli představit soubor norem různého původu (kultura, náboženství apod.), kterými se lidé skutečně řídí. Různé společnosti (a dokonce i jednotliví lidé) mohou vyznávat odlišné morálky, většina autorů je však přesvědčená, že etika je (či by měla být) schopná určit ty principy a normy, které jsou platné obecně. Morálka je podmíněna celou řadou faktorů, může se měnit a být nesprávná (stačí pomyslet na otroctví, které se někdy obhajovalo prostřednictvím tehdy panujících morálních norem), etika by měla mít alespoň určité jádro trvale platných principů a norem.

Etika se sice tradičně primárně zaměřuje na člověka a jeho jednání, ale s rozvojem moderních technologií se leccos změnilo. Uvědomili jsme si, že výdobytky lidské činnosti nejsou morálně zcela nečinné a jejich vlastnosti mohou mít pozitivní, ale i negativní dopady na život člověka i na společnost.

Automobily mají dnes bezpečnostní pásy, airbagy, deformační zóny a další bezpečnostní prvky; zbraně mají pojistky; průmysloví roboti mají pojistky pro případy ohrožení života a zdraví. Moderní technologie se však z pasivních objektů (které něco „dělají“ jen na základě přímé lidské instrukce) proměňují v aktéry, kteří se mohou rozhodovat a na základě těchto rozhodnutí i jednat. Zvláště pokroky na poli umělé inteligence přispěly ke vzniku nepřeberného množství systémů, jež získávají informace o vnějším světě (vnímají), vytvářejí si plány jednání a poté tyto plány s různou mírou autonomie uskutečňují. A jakýmsi svatým grálem výzkumu je stvoření obecné umělé inteligence, která bude při řešení úkolů stejně zdatná jako člověk.

Etika umělé inteligence

Etika umělé inteligence je poměrně mladá vědní disciplína, její význam však neustále roste. Jedním z hlavních důvodů je právě to, že za nás stále více úkolů a rozhodnutí vykonávají stroje. Často pod dohledem člověka, nicméně v mnoha úzce vymezených oblastech nás stroje dávno překonaly a blízká budoucnost, alespoň podle plánů mnoha technologických gigantů, bude zahrnovat plně autonomní systémy. Příkladem mohou být autonomní vozidla. V plném provozu je zatím běžně nepotkáváme (určitě ne bez lidského dohledu), to se ale brzy může změnit. Taková vozidla by měla být schopná dopravit nás do libovolného bodu, a to bez nutnosti zásahu lidského operátora. Kromě mnoha technických aspektů to ale znamená, že se budou muset řídit nějakými etickými pravidly, která jim umožní se rozhodovat správně.

Jádrem etiky umělé inteligence je snaha o vytvoření souboru etických pravidel, která všem systémům umělé inteligence umožní rozhodovat se správně.

Co to ale přesně znamená? A je vůbec realistické doufat, že nalezneme shodu na systému několika jednoduchých principů, jimiž by se mohly řídit všechny systémy umělé inteligence, a to nejen u nás, ale v celé Evropě, či dokonce na celém světě? Na národních a nadnárodních úrovních existuje celá řada iniciativ a dokumentů, které vycházejí z přesvědčení, že to realistické je. Podívejme se tedy blíže na to, s jakými návrhy přicházejí.

Principy

Všechny důležité dokumenty o etice umělé inteligence se shodují na tom, že existuje několik základních etických principů, jimiž by se inteligentní systémy a stroje měly řídit. Jedná se o těchto pět principů:

— princip neškození,
— princip prospívání,
— princip respektu k lidské autonomii,
— princip spravedlnosti
— a konečně princip vysvětlitelnosti.

Podaří-li se nám nějakým způsobem začlenit tyto principy do rozhodovacích mechanismů umělé inteligence (alespoň taková je základní představa), výsledkem budou stroje a systémy, které se rozhodují eticky správně. Existují tři přístupy, jak umělou inteligenci „obohatit“ o etické principy:

— přístupy „shora“ (naprogramujeme obecné rozhodovací procedury),
— přístupy „zdola“ (necháme umělou inteligenci, aby se eticky správné jednání naučila),
— či kombinace obou postupů.

Dvě důležité otázky však zůstávají: je těchto pět principů zárukou správného jednání? A budou stroje schopné je aplikovat v praxi?

Bližší pohled

Podívejme se znovu na všechny principy. První z nich říká, že by umělá inteligence neměla ubližovat, druhý, že by měla prospívat, třetí, že by měla respektovat naše autonomní volby a jednání, čtvrtý, že by měla respektovat spravedlnost, konečně poslední, pátý, že by její rozhodnutí měla být pro nás lidi srozumitelná. Teoreticky se může zdát, že všechny důležité oblasti jsou pokryté, ale není tomu tak.

První problém se týká aplikace těchto principů v konkrétních situacích.

Co přesně totiž znamená, že umělá inteligence nemá ubližovat a měla by prospívat?

Představme si lékařského robota, který má provádět operace. Rozříznutí lidského těla skalpelem či laserovým paprskem vypadá jako jasný příklad ubližování, budeme-li ubližování chápat jako působení nějaké újmy. Přesto všichni souhlasíme s tím, že chirurgové smějí dělat celou řadu zákroků, které by nikdo jiný dělat nesměl, neboť jsou jasným příkladem újmy. Nikdo z nás nesmí jiného člověka připravit o končetinu, chirurg však za určitých okolností může. Je tedy zřejmé, že princip „neubližuj“ je příliš obecný a jeho aplikace může výrazně záviset na okolnostech. Dokážeme všechny tyto kontexty zmapovat, určit všechny výjimky, interpretace apod. a naučit je i umělou inteligenci?

Abychom věděli, že někomu ubližujeme (působíme újmu), musíme ve skutečnosti uplatňovat poměrně široké spektrum znalostí a dovedností.

Totéž bychom mohli říct i o dalších etických principech. Umělá inteligence se může velmi snadno dostávat do situací, kdy si nebude vůbec jistá, jak by se měla rozhodnout, případně si bude myslet, že se rozhodla správně (= korektně aplikovala relevantní principy), rozhodnutí ale správné nebude.​

Autonomní vojenské systémy

Další problém s pěti principy se týká toho, že by měly platit pro každý systém umělé inteligence, bez ohledu na jeho účel. Není proto divu, že například autonomní vojenské systémy (dokáží provést svou misi, včetně zneškodnění nepřítele, zcela bez zásahu člověka) se většinou nechávají stranou. Ale to jsou také systémy umělé inteligence, a i když se zatím (zřejmě) nepoužívají, brzy se v reálných konfliktech nasazovat budou. A v jejich případě jde doslova o život, dokonce o mnoho životů. Neměla by se jim etická rozvaha věnovat primárně? A všimněme si, že těžko po nějakém vojenském systému s umělou inteligencí můžeme chtít, aby neškodil.

Možná bychom mohli říci, že podobně jako v případě chirurgických robotů existují situace, kdy je újma přípustná. Je tu ale jeden velký rozdíl: zatímco chirurg či robot působí újmu (např. amputaci) proto, že to je podmínkou uzdravení pacienta, smrt žádnému člověku neprospěje. A etika války zná mnoho dalších morálních dilemat.

Autonomní vozidla

Jiným příkladem mohou být autonomní vozidla. Slibujeme si od nich mnohé, mimo jiné výrazné zvýšení bezpečnosti dopravy. Zákony fyziky však obejít nelze a i tito sofistikovaní roboti se budou dostávat do situací, kdy ať se rozhodnou jakkoli, vždy způsobí nějakou újmu. Člověk tuto možnost většinou nemá a jedná instinktivně, počítač by ovšem v některých případech měl dost času na nějaký manévr. Může vozidlo směřovat vpravo (kde je chodec), nebo vlevo (kde je strom). Jak by se mělo rozhodnout? Ani jeden z principů mu příliš nepomůže. Když totiž zahne doprava, ohrozí zdraví a život chodce, zahne-li naopak doprava, ohrozí řidiče.

Možná bychom ho měli vybavit pravidlem, aby se v takových situací nerozhodovalo nijak, respektive aby začalo brzdit, ale směr nijak neměnilo. Trochu to ale zavání alibismem. Mohli bychom totiž říci, že se vozidlo nijak nerozhodlo, prostě jen brzdilo. Ale i rozhodnutí se nijak nerozhodovat je rozhodnutím. Představme si, že vozidlo dostalo smyk a řítí se k přechodu, na němž jsou dvě děti. Vlevo přijíždí jiné vozidlo, vpravo je chodec na chodníku. Když se vozidlo rozhodne neměnit směr a bude brzdit, ale nestačí včas zastavit, těžko můžeme říkat, že se vlastně nijak nerozhodlo. Mělo totiž tři volby: zahnout doprava, doleva, neměnit směr a brzdit. A srazí-li obě děti, bylo to důsledkem volby neměnit směr jízdy. A samozřejmě také v rozporu s principem neškození.

Minimalizace újmy

Jenže jak se tedy mělo rozhodnout? Všechny tři možnosti přece zahrnovaly nějakou újmu. Odpověď na tuto otázku nezískáme prostřednictvím systému pěti principů. Jednoduše musíme hledat jinde. Jednou z možností je inspirovat se jiným etickým přístupem, kterému se říká utilitarismus. Má dvě stránky: první znamená, že bychom se měli snažit maximalizovat to dobré, co z našeho jednání plyne, druhá potom, že máme naopak minimalizovat to zlé.

Takže v případě vozidla a přechodu s dětmi může vozidlo zahnout doprava (ohrozit řidiče), doleva (chodce), nebo brzdit a pokračovat ve směru jízdy (ohrozit dvě děti). Řidič je chráněný vozidlem (a umělá inteligence by měla dobře znáš všechny bezpečnostní prvky a jejich účinnost), chodec a děti však ne. A dva životy (děti) jsou více než jeden život (chodec). Auto by tedy mělo zahnout doprava a ohrozit řidiče.

Samozřejmě takto jednoduché to v praxi nebude a úvahy vozidel budou muset být velmi komplexní a zahrnovat celou řadu faktorů a pravděpodobností. To jsou ale spíše technické detaily, nikoli etické.

Etika minimalizace újmy, jak jste si jistě všimli, je však v rozporu s pěti principy regulace chování umělé inteligence. Jinými slovy, dva etické systémy (jeden založený na principech a druhý na minimalizaci újmy) poskytují v některých situacích odlišné odpovědi na to, co je správné.

Musíme se ale nějak rozhodnout. Pomoci by nám mohlo to, že když se autonomní vozidla budou řídit principy, budou někdy ubližovat více, než je ve skutečnosti nutné (ohrozí děti na přechodu), zatímco etika minimalizace újmy bude v každé situaci ubližovat co nejméně. Když ji ale přijmeme a implementujeme, nebudeme moci tvrdit, že vozidla neubližují úmyslně; když se totiž auto rozhodne minimalizovat újmu, rozhodne se vědomě a úmyslně.

Snaha nalézt nějaké obecné etické principy, jimiž by se mohla řídit umělá inteligence ve všech svých podobách, je jistě pochopitelná, naráží však na velké problémy. Snadno se dostane do situací, které nebude umět správně interpretovat. My lidé máme celou řadu schopností, včetně intuice a poznání spojených s emocemi, které nám poskytují vodítka.

Umělá inteligence, navzdory své sofistikovanosti, je ve svých nejmodernějších podobách vlastně jen velmi mocným nástrojem statistické analýzy a rozpoznávání. Chybí jí to, čemu říkáme zdravý rozum, nemá žádné emoce ani intuici, těžko bude chápat, jaké kontexty a souvislosti jsou pro její rozhodování podstatné.

Možné řešení

Jak jsme viděli, principy, jimiž by se umělá inteligence měla řídit, vyžadují často nesnadnou interpretaci a v některých situacích jsou zcela nevhodné. Znamená to, že je naše snaha obdařit umělou inteligenci nástroji eticky korektního rozhodování zcela ztracená?

Ne nezbytně. Musíme se ale vzdát představy, že existuje pouze jeden systém etických principů, který je použitelný pro umělou inteligenci ve všech jejích podobách a aplikacích. Možná bychom prostě neměli o etice umělé inteligence přemýšlet obecně, s odhlédnutím od toho, kde a k čemu ji chceme používat a jaká od ní máme očekávání. Právě způsob využití a očekávání mohou být dobrým východiskem etických úvah.

Příkladem mohou být již zmiňované autonomní vojenské systémy (budu jim říkat vojenští roboti). Jen těžko bychom jim mohli zakazovat působit újmu, protože právě to je smyslem jejich existence a využití.

To ale neznamená, že bychom je nemohli opatřit celou řadou etických principů. Jejich konkrétní povahu však opět musíme odvozovat od účelu a kontextu nasazení. Teorie spravedlivé války stanovuje podmínky spravedlivého vedení boje, mezi něž náleží rozlišování mezi nepřátelskými a vlastními bojovníky a mezi bojovníky a civilisty. Přísně zakazuje útočit na civilisty a vést válku způsoby, které civilisty nepřiměřeně a nedůvodně ohrožují. Vojenští roboti tedy musí mít určité schopnosti (rozlišovat legitimní a nelegitimní cíle patří mezi ně). A jedním ze základních etických principů, jimiž se musí řídit, je „nikdy neútoč na civilisty“.

Závěrem

Umělá inteligence se používá v mnoha oblastech a pro různé účely. Rozhoduje o půjčkách, vyhodnocuje výsledky výběrových řízení, obchoduje na burze, sleduje podezřelé transakce na našich platebních kartách, vede s námi konverzaci, ovládá telefony (např. Siri), nabízí nám obsah na sociálních sítích, diagnostikuje nemoci, předpovídá strukturu proteinů, analyzuje obrovské soubory dat, v podobě autonomních vozidel nás bude přepravovat, dělá nám společnost (společenští roboti), ošetřuje nás a opatruje (pečovatelští roboti), může nám dokonce nabídnout radovánky sexuální povahy (sexuální roboti).

Tuto rozmanitost forem umělé inteligence nelze spoutat jediným systémem etických pravidel. Má-li etika umělé inteligence nějakou budoucnost, měla by to být budoucnost úvah o konkrétních systémech a konkrétních typech robotů, od nichž máme nějaká očekávání.

A právě tato očekávání (auta nás budou vozit, algoritmy informovat, společenští roboti nám budou dělat společnost, záchranářští roboti nás budou zachraňovat apod.) by měla být živným substrátem, z něhož naše reflexe vypěstuje konkrétní etické principy a vodítka, jež budou šité na míru systémům umělé inteligence.

Autor textu: David Černý (Centrum Karla Čapka)
Editoři: Herbert Ullrich, Vojtěch Jindra
Odborní garanti: Pavel Kordík, Jiří Materna
Datum poslední revize: 02/24

Doporučujeme k dalšímu studiu

bezplatný certifikovaný kurz

Bezplatný online kurz v češtině určený každému, kdo se chce dozvědět, co to je umělá inteligence, čeho lze a nelze jejím prostřednictvím dosáhnout a jak ovlivňuje naše životy. Pro účast v kurzu nejsou zapotřebí pokročilé znalosti matematiky ani znalost programování. Do českého prostředí kurz přináší prg.ai. Přejít na kurz →

Máte dotaz nebo hledáte podporu? Zeptejte se komunity či správců v naší FB skupině.

Pilotní vzdělávací program Umělá inteligence do základních škol 2022/23 realizuje Pražský inovační institut
v rámci projektu iKAP II — Inovace ve vzdělávání. Registrační číslo: CZ.02.3.68/0.0/0.0/19_078/0021106.

AI dětem © 2022. Využíváme cookies pro měření návštěvnosti webu.
Všechny vznikající metodiky podléhají licenci Creative Commons 4.0 Mezinárodní Licence.

Licence Creative Commons