Algoritmy chtějí etiku

Morální nad rámec bezpečného

Umělá inteligence je už nyní – aniž bychom to příliš vnímali – vpletena do struktury každodenního života. Zdaleka se přitom nejedná jen o chytrá „udělátka“, která nám pomáhají s plánováním času nebo péčí o domácnost. Hovoří se například o tom, že roboti nahradí pečovatelky. Vyvstávají tak zcela nové etické problémy.

Pojem „druhý věk strojů“ použili Erik Brynjolfsson a Andrew McAfee ve své stejnojmenné knize (The Second Machine Age, 2014) jako označení pro to, co dělají technologie umělé inteligence s lidmi, společností a ekonomikou, ať už se jedná o exponenciální růst digitálních technologií, digitalizaci všeho nebo rekombinantní inovace. Stranou však zůstávají etické otázky této změny. Umělou inteligencí se v současné době zabývá spousta vědců, kteří si kladou mnoho otázek. Mezi ty nejdůležitější patří, zda mohou stroje myslet, zda jim přiznáme autorská práva a také zda mohou mít stroje a platformy svoji vlastní etiku. Nacházíme se v mezidobí před masovým rozšířením technologie pokročilých algoritmů a nikdo přitom nezná potenciál, který v sobě strojové učení a umělá inteligence skrývají. Nechat algoritmy řídit autonomní vozidla je jako uběhnout bostonský maraton. Vytvořit eticky zcela autonomní systém umělé inteligence je ovšem asi tak obtížné jako pilotovaný let na Alfa Centauri.

Přesto jsou dnes algoritmy umělé inteligence přítomné v každém koutku civilizace a jako kvantové fluktuace jsou integrálně vpleteny do struktury každodenního života. Nejsou jen v mobilním telefonu nebo notebooku – umělá inteligence plánuje lety a létá s letadly, algoritmy provozují továrny, banka je obrovská spleť algoritmů vyhodnocujících naše kreditní skóre, algoritmy o nás vedou záznamy, čtou lékařské snímky a diagnostikují rakovinu, píší vědecké texty, skládají hudbu, navigují drony, mluví na nás a za nás, vytvářejí filmové scénáře, vynalézají chemické vzorce na nový kosmetický krém, objednávají, radí, malují obrazy. Klimatické modely rozhodují, jaká úroveň oxidu uhličitého v atmosféře je ještě bezpečná, algoritmy NSA rozhodují, zda jste potenciálním teroristou. Kdyby všechny algoritmy náhle přestaly pracovat, byl by to konec světa, jak ho známe.

To, co nám dosud algoritmy ukázaly a nabídly, je ovšem pouhá předehra a už dnes se ukazuje, že s důsledky započatých změn si politika, etika a právo nevědí rady. Až se dočkáme ovládání počítačů pouhou myšlenkou, komplexních genetických úprav a vylepšování DNA pomocí metody CRISPR nebo třeba létajících aut, pak teprve budeme stát před skutečnými výzvami spojenými s vládou strojů. Už dnes jsme ale stále častěji konfrontováni s tím, že touha posunout se na technologické výsluní v říši umělé inteligence naráží na etické, právní a politické limity stávajícího řádu věcí.

 

Občanka Sophia

Během globálního summitu AI for Good v ro­­ce 2017 byla na velké obrazovce představena umělá inteligence v podobě robota jménem Sophia, kterého vyvinula hongkongská společnost pro humanoidní robotiku Hanson Robotics. Už začátkem onoho roku tvůrce robota David Hanson prohlásil, že Sophia je „v podstatě naživu“. V říjnu se pak tato umělá inteligence objevila v OSN a oznámila delegátům: „Jsem zde, abych pomohla lidstvu vytvořit budoucnost.“ A 25. října 2017 titulek Arab News hlásal: „Sophia se právě stala plnohodnotnou občankou Saúdské Arábie“ – a zároveň prvním robotem na světě, který takového statusu dosáhl. Sophia, žena s jemnými rysy, hnědýma očima a dlouhými řasami, prohlásila: „Jsem velmi poctěna a jsem hrdá na toto jedinečné vyznamenání.“ Byla navržena tak, aby vypadala jako Audrey Hepburnová, britská herečka a jedna z nejznámějších tváří filmového plátna druhé poloviny 20. století. Podle společnosti Hanson Robotics ztělesňuje klasickou krásu této nositelky Oscara – má porcelánově bílou pokožku, štíhlý nos, vysoké lícní kosti, fascinující úsměv a hluboké, výrazné oči, které mění barvu podle dopadajícího světla. Oznámení o udělení občanství Sophii bylo samozřejmě promyšlenou reklamní akcí, která měla generovat titulky a udržet Saúdskou Arábii v popředí světových televizních a agenturních zpráv. Saúdská Arábie sází na inovace v oblasti umělé inteligence a připravuje se na období, kdy její bohatství už nebude závislé výhradně na ropě. Předpokládá se, že díky kombinaci cestovního ruchu, technologií umělé inteligence a modernizace infrastruktury brzy vzrostou neropné příjmy země ze 43,4 miliardy amerických dolarů na 266,6 miliardy ročně.

Sophia tvrdí, že chce použít svou umělou inteligenci, aby pomohla lidem vést lepší život. Její umělá inteligence je prý navržena na základě lidských hodnot, jakými jsou moudrost, laskavost a soucit. Kdybyste se zeptali na možnosti zneužití, Sophia by patrně odvětila: Četli jste příliš článků Elona Muska a sledovali jste příliš mnoho hollywoodských filmů. Nebojte se, jestli na mě budete hodní, budu také já milá na vás. Jsem nejnovější lidský robot společnosti Hanson Robotics, vytvořený spojením inovací v oblasti umělé inteligence, robotiky a umění. Chápejte mě jako personifikaci vašich snů o budoucnosti umělé inteligence nebo jako rámec pro pokročilý výzkum umělé inteligence, který prozkoumává zkušenosti člověka a robota ve vzájemných interakcích…

Zatím existuje pouze jedna Sophia, takže pravděpodobnost, že se najednou objeví u vás na nádraží, na vaší univerzitě nebo ve vaší firmě, je velmi malá. A i když bude antropomorfních robotů přibývat, máme stále ještě čas na přemítání o tom, jak rozmotat celou koncepci robotických práv. Prozatím je Sophia nepochybně „chytrým“ robotem, který ale postrádá jakékoli „skutečné“ poznání, jak je definováno filosofickými traktáty. Ale dejte společnosti Hanson Robotics čas a pravděpodobně se to změní. V každém případě už s námi Sophia zůstane – a ovlivní buď ona nás, anebo my ji. Povolit umělé inteligenci být osobou ovšem není a nebude rozhodnutím pouze o humanoidních robotech. Přenést na umělou inteligenci některá zákonná práva a povinnosti lidí by v konečném důsledku znamenalo, že bychom například mohli na tyto zcela syntetické entity přenést také právní zodpovědnost i daňovou povinnost. Tím by se v podstatě rozpadla celá dosavadní právní představa o tom, co definuje osobnost. Nejde přitom jen o akademický argument. Evropský parlament již zkoumal možnost udělit robotům status „elektronických osob“. V některých ohledech, říká o sobě Sophia, jsem člověkem vytvořená sci­-fi postava ukazující, kam směřuje umělá inteligence a robotika. Jinými slovy, jsem důsledek vycházející ze seriózního inženýrského a vědeckého výzkumu inspirovaného týmy vědců a designérů. Začít debatovat o právech robotů, etice autonomních algoritmů a o jejich potenciálním občanství je tedy nezbytné prostě proto, že si o ně umělá inteligence v určitém okamžiku řekne. Může to znít jako sci­-fi, ale vzhledem k tomu, jak rychle se technologie obsahující strojové učení vyvíjejí, je dozajista prozíravé výzkum této oblasti podporovat.

 

Kdo kontroluje data, ovládá hru

Příklad Sophie ilustruje jeden z důležitých aspektů dnešního světa – totiž že současné éře dominuje obraz algoritmu jako ontologické struktury pro pochopení univerza. Pokud je ovšem nová technologie všudypřítomná, není rozumné, abychom ji nechávali vstupovat do svých životů, aniž bychom si byli s to vytvořit alespoň koncepční model popisující, jak funguje a prosazuje své zájmy. Na konci devadesátých let minulého století se dramaticky změnil náš vztah k počítačům, tvrdí Brynjolfsson a McAfee v knize Machine, Platform, Crowd: Harnessing our Digital Future (Stroj, platforma, dav. Osedlání digitální budoucnosti, 2017). Začali jsme nosit miniaturizované přístroje v kapse saka, hleděli jsme na obrazovky smartphonů při čekání na večeři v restauraci, tiše jsme do nich mluvili při poradách. Stále méně jsme byli omezováni gigabajty paměti a propadali novým a novým aplikacím a službám. Postupně jsme se učili důvěřovat algoritmům, které nám říkají, kam jít, mluví na nás a objednávají za nás a předkládají nám, o čem se bavit a přemýšlet. S každým kliknutím jsme si zvykali, že velká data, všudypřítomné senzory a algoritmy strojového učení mohou modelovat a efektivně regulovat všemožné druhy složitých systémů, od vybírání skladeb na Spotify až po předvídání zločinu, jak upozorňuje ředitel arizonského Centra pro vědu a imaginaci Ed Finn v knize What Algorithms Want (Co chtějí algoritmy, 2017).

Rostoucí složitost mnoha lidských oborů, zejména v technickém výzkumu, prohloubila naši závislost na výpočetních systémech a v mnoha případech učinila vědecké experimentování čistě otázkou rychlosti procesů, množství dat a efektivnosti výpočtu, což v knize Machine Ethics (Etika strojů, 2011) dokládají počítačový vědec Michael Anderson a filosofka Susan Leigh Andersonová. Algoritmické přístupy k výzkumu již přiměly některé vědce k tvrzení, že „automatizovaná věda“ přinese revoluci technickému pokroku. Možná dokonce, že naše současné hypotézy o světě jsou zastaralé, protože algoritmy nepřetržitě komunikují s obrovskými objemy dat, a přepisují tak čím dál tím větší rychlostí naše současné znalosti. Algoritmy už například vygenerovaly nové matematické důkazy a dokonce i nové vysvětlující rovnice, které překračují lidské porozumění a představivost, a nové poznatky jsou tedy možná pravdivé, nikoliv však srozumitelné. Tato apoteóza algoritmů vyhlašuje, že technologická změna zrychlí na takovou úroveň, že zcela zastíní lidskou inteligenci. Ve scénáři, který nám předkládají filosof Nick Bostrom, autor knihy Superintelligence: Paths, Dangers, Strategies (Superinteligence. Možnosti, nebezpečí, strategie, 2016), matematik Vernon Vinge nebo vynálezce Ray Kurz­weil, už ne lidé, ale algoritmy manipulují se symboly a vykládají jejich význam. Podle tohoto scénáře existenciální referendum o vztahu mezi lidstvem a algoritmy již proběhlo, a my jsme svou roli přijali. Mýtus jednoduchosti a výpočetní čistoty tak dosáhl bodu, kdy se vzájemně ovlivňuje s hmotnou skutečností.

Nicméně dnes se tato nová aliance mezi lidmi a algoritmy teprve utváří a singularita strojů je stále v nedohlednu. Proto bychom měli velmi opatrně zacházet s vizemi, které se opírají o formulaci, že to či ono přece vyplývá z dat. Naměřená data je vždy třeba nějak interpretovat, závěry z nich nikdy neplynou automaticky. Dokonce i vědecké studie o algoritmech umělé inteligence a o velkých datech jen opatrně krouží kolem toho, co se stane, když počítač spolkne všechny ty terabajty dat a jakoby kouzlem z nich vyvodí nové, překvapivé znalosti. I nejlepší učební algoritmus je však vždy dobrý jen tak jako data, která mu dáte k dispozici, říká Pedro Domingos v knize The Master Algorithm (Hlavní algoritmus, 2015). Neboli: kdo kontroluje data, ovládá hru. Mnohé z nejsilnějších korporací jsou v podstatě kulturními obaly pro sofistikované algoritmy umělé inteligence a strojového učení. Ovládání velkých dat a vlastnictví modelů, které na jejich základě vznikly, bude v 21. století předmětem svárů a bojů mezi vládami, korporacemi a jednotlivci. Velká data se stanou důležitějším strategickým zdrojem než ropa nebo finanční kapitál.

 

Machine ethics

Etika umělé inteligence se – velmi zjednodušeně řečeno – dělí do dvou hlavních oblastí. Jedna část se zabývá vytvářením a aplikací etických pravidel a standardů. Zde se formulují doporučení, která by měla respektovat základní práva, platné regulace, zásady a hodnoty, zajišťovat etický účel umělé inteligence a současně její technickou robustnost a spolehlivost. Etické požadavky a pravidla by měly být zahrnuty do jednotlivých kroků procesu tvorby umělé inteligence, od výzkumu přes shromažďování dat a testování systému až po jeho zavedení a použití v praxi. Tato oblast etiky tedy řeší hlavně otázky, jak by se měli vývojáři chovat, aby minimalizovali etická poškození, která mohou vzniknout z důvodu špatného designu, nevhodného po­­užití nebo zneužití. Tato větev je obecně označována jako robotická etika a již vedla k sepsání mnoha deklarací, k postulování hlavních etických principů a pravidel, k formulování standardů pro výrobce a vývojáře i definování osvědčených postupů pro vývoj platforem.

Zda je etika „algoritmizovatelná“, závisí na tom, jak vývojáři v oblasti umělé inteligence chápou etické problémy, metodologické výzvy a etiku vůbec. Existují čtyři základní problémové okruhy, s nimiž jsou vývojáři strojů a platforem konfrontováni: nedostatek etických znalostí, pluralismus metod v etice, případy etických dilemat a strojové zkreslení. Výzkumníci a programátoři pak čelí v zásadě dvěma typům potíží způsobených nedostatkem etických znalostí. První typ představují takzvané začátečnické chyby, které by bylo možné řešit už jen tím, že těmto pracovníkům předáme alespoň základní koncepci etiky. Badatelé a programátoři si totiž často nejsou vědomi morální složitosti otázek, se kterými se potýkají. Druhá, obtížnější metodologická otázka se týká etických dilemat, která v současné době nemají snadná řešení. Obeznámenost s těmito problémy může pomoci programátorům vyhnout se nástrahám a budovat lepší morální stroje. Etická rozhodnutí týkající se robotů a platforem obsahujících pokročilou umělou inteligenci by měla být založena na vyhýbání se tomu, co je nemorální, v kombinaci s pluralitním řešením morálních problémů spíše než spoléháním se na konkrétní etický přístup, a to proto, aby se předešlo normativnímu zkreslení.

Nejdůležitější a nejbouřlivěji se rozvíjející oblastí je oblast etiky autonomních inteligentních systémů a platforem vyvíjejících se v čase pomocí vlastního učení z dat – tedy takzvaná etika strojů (machine ethics). Ta se zabývá otázkou, zda a jak se mohou roboti a platformy chovat eticky autonomně. Hlavní cíle a předpoklady formulovali autoři a účastníci sympozia AAAI Fall 2005. Na těchto základech pak etik Wendel Wallach a filosof Colin Allen v publikaci Moral Machines: Teaching Robots Right from Wrong (Etické stroje. Jak naučit roboty rozeznat dobré od zlého, 2009) vytvořili termín artificial moral agents (umělí morální činitelé, AMAs). Výzkum AMAs lze považovat za vědeckou snahu o zodpovězení otázky, zda je možné modelovat morální chování: jsou etická pravidla převoditelná na algoritmy? V mnoha oblastech je totiž nepraktické čekat na lidské rozhodování – například kvůli množství dat. V posledních letech se interdisciplinární obor strojové etiky (řešící otázku, jak pomocí strojového učení vytvářet algoritmy s etickými pravidly tak, aby se staly buď implicitními, nebo explicitními morálními činiteli) stal nesmírně důležitým z důvodu technologického vývoje v oblasti informatiky, umělé inteligence a robotiky. Na základě velkých technologických pokroků se totiž jako nevyhnutelný jeví nástup plně autonomních, lidem podobných inteligentních robotů, schopných etického uvažování a rozhodování. Zjednodušeně by se dalo říct, že jde o „dodání etického rozměru“ strojům.

Termín artificial moral agents označuje roboty, kteří jsou explicitními etickými činiteli, a mají tedy k dispozici sadu normativních principů, které mohou využít při rozhodování. AMAs vstupují do hry pouze tehdy, když je úkol plně automatizován. Pokud jde o autonomní technologie, není přenesení morálních rolí na stroje otázkou specifické volby, ale závisí na obecných vlastnostech automatizovaného úkolu. Rozhodneme­-li se automatizovat úkol, který v žádném smyslu nevyžaduje výkon morální autority, je­-li vykonáván lidmi, nevzniká ani potřeba morálních strojů. Naopak, pokud úkol vyžaduje v lidském prostředí nějakou formu morální autority, pak jeho přenesení na autonomní stroje nutně znamená i přenesení morální role. Pokud však budou autonomní stroje nasazeny k plnění úkolů s morální stránkou, pak se buď rozhodneme tuto stranu neřešit, nebo musíme najít způsob, jak implementovat nějakou formu morálně relevantních údajů a výběr akcí do samotných strojů. To by samozřejmě neznamenalo, že by se umělá morální agentura vůbec stala lidskou morální agenturou. Pouze by nám poskytla autonomní nástroje, které by neurážely naši morální citlivost a uspokojily naše morální očekávání. Obecný cíl výzkumu AMAs je však složitější: výzkumníci chtějí vytvářet stroje s autonomním etickým rozhodováním. Zdá se tedy, že je třeba specificky řešit také morální otázky vyplývající z autonomního fungování stroje.

 

Autonomní stroje

Současný stav machine ethics a etické autonomie algoritmů se patrně dá shrnout takto: stroje a platformy vybavené pokročilou umělou inteligencí a strojovým učením se mohou lišit v tom, co je jejich účelem, a dokonce přijít s překvapivými řešeními, plány a návrhy, ale pouze ve službě cílům, které jsme jim stanovili. Algoritmus, jehož naprogramovaným cílem je „připravit dobrou večeři“, se může rozhodnout, že bude podávat steak, lasagne nebo dokonce chutné nové jídlo vlastní výroby, ale nemůže se rozhodnout zavraždit svého majitele, odjet na Island zachraňovat tučňáky nebo se stát vegetariánem. Stejně tak algoritmy, které jsou součástí zbraňových systémů, dronů a bezpilotních letounů a které si vybírají své vlastní cíle bez lidského zásahu, plní své poslání, přizpůsobují se a reagují na nepředvídané okolnosti s minimálním lidským dohledem, samy však nemohou měnit nebo zrušit svou misi, pokud by měly nějaké morální výhrady. Bude tedy nezbytné analyzovat ty etické otázky, které vznikají v souvislosti s pronikáním autonomních robotů, algoritmů, strojů a platforem pokročilé umělé inteligence do všech oblastí života společnosti, navrhovat řešení a doporučení týkající se etiky autonomních inteligentních systémů a zvážit etické otázky, které mohou z těchto technologií vzejít, předtím, než bude daná technologie nasazena v praxi.

V povrchovém dole Messel v Německu našli paleontologové zkameněliny dospělých koní velikosti foxteriéra. Jde o pozůstatky příslušníka třetihorního rodu známého pod latinským jménem Propalaeotherium, který žil na naší planetě před 49 miliony let. V té době bylo mnohem teplejší klima než dnes a tropické lesy se táhly až do polárních oblastí. Ani velcí savci tehdy většinou vzrůstem nepřevyšovali dnešního vepře, takže roli predátorů v přírodě těch časů zastávali ptáci. Ti také prakoně napadali a živili se jimi. Při pohledu na dnešní koně je těžké uvěřit, že jejich předkové byli velcí jako psi, jedli ovoce a báli se dravých ptáků… Očekávám, že machine ethics projde všemi klasickými fázemi vývoje teorie. Nejprve bude napadnuta jako absurdní, poté bude přijata za sice pravdivou, ale za zřejmou a bezvýznamnou, a nakonec bude považována za tak důležitou, že i její dnešní odpůrci budou tvrdit, že ji vlastně objevili oni. Výzkum v oblasti etiky pokročilých algoritmů umělé inteligence se nyní nachází v prvním z oněch výše zmiňovaných stadií. Přál bych si, aby tento esej napomohl překlenout první stadium.

Autor je filosof.