Daniela Kovářová

Neorodina roku 2017

2. 02. 2017 14:05:16
Umělá inteligence zatím zajímala informatiky, spisovatele sci-fi a filmaře. První skupina sestavovala dětské hračky a šachové automaty, druhá vymýšlela fikce a třetí je přenášela na filmové plátno pro pobavení nás ostatních.

Mezitím umělá inteligence tiše a neslyšně překročila prahy našich domovů a my se teď divíme, kdo že to s námi sdílí společnou domácnost.

Japonské dívky dávají přednost virtuálním milencům před muži z masa a kostí, řada mých českých spoluobčanů vystupuje na Facebooku pod jinou identitou a sama sociální síť mi aktivně nabízí reklamy a články právě toho zboží, po kterém právě nejvíce toužím, znajíc mou velikost, věk, váhu, krevní skupinu i chutě s ní spojené. Auto, které jsem si před nedávnem koupila, samo strhne volant doprostřed vozovky, jakmile se jen trochu zasním a pravá pneumatika ucítí bílé značení na kraji cest, jiné vozidlo se bez připoutání nerozjede, byvše chytřejší než ten nedokonalý tvor, jenž ho chce ovládat. Informatici už jsou takřka na konci cesty, podobně jako spisovatelé nebo filmaři. A tak dříve či později přijdou ke slovu i v tomto oboru právníci.

Samořídící auto

Ta zpráva se objevila někdy v říjnu loňského roku a k mému údivu hned zapadla. Auto vybavené tempomatem udržujícím stále stejně vysokou rychlost nereagovalo na pokus o jeho vypnutí. Řidič se telefonem spojil s operátorem a několik minut se pokoušel jeho radami snížit rychlost, jež se ustálila na sto šedesáti kilometrech. Pak auto v plné rychlosti nabouralo a pasažér v něm zemřel. I kdyby ta zpráva nebyla pravdivá, jednou se něco podobného stane. Pomiňme nyní jiné právní souvislosti, například žalobu rodiny pozůstalé po řidiči o náhradu škody, zlý úmysl jiné osoby, sabotáž nebo technickou poruchu. Takové věci se vždycky budou stávat a ani technická dokonalost jednadvacátého století jim nikdy docela nezabrání. Mě ovšem zajímá jiný právní pohled – jaký algoritmus bude třeba do auta zabudovat a jak vyřešit konflikt loajality, tedy pochopitelné dilema umělé inteligence. Informatik nebude ochoten rozhodovat sám, proto se obrátí na svého nadřízeného. I manažer softwarové firmy odmítne, a problém tak skončí na stolech nás právníků. Programátoři i manažeři totiž budou požadovat seznam priorit a preferencí, katalog zákonitostí či kritérií, které je zbaví budoucí odpovědnosti.

Asimovovy zákony robotiky

O robotických zákonech přemýšlel americký spisovatel a biochemik Isaac Asimov (1920-1992), který v roce 1941 formuloval tři základní zákony robotiky. Znějí takto:

  1. Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
  2. Robot musí uposlechnout příkazů člověka, s výjimkou případů, kdy jsou příkazy v rozporu s prvním zákonem.
  3. Robot musí chránit sám sebe před poškozením, s výjimkou případů, kdy je ochrana v rozporu s prvním nebo druhým zákonem.

Existují i další zákony, připisované tu Asimovovi, jindy jiným autorům. Například že robot nesmí ublížit lidstvu, že musí vědět, že je robotem, popř. že se musí vždy prokazovat jako robot. Nechme nyní stranou krásnou literaturu a představme si problémy, které mohou při aplikaci těchto zákonů reálně vzniknout. Prvním problémem je právě konflikt loajality.

Například v domě vypukne požár, v jednom křídle spí rodiče a v opačném děti. Robot vyhodnotí rychlost šíření a ví, že stihne zachránit členy rodiny jen z jednoho křídla. Pro kterou skupinu se má rozhodnout? Bude směrodatný počet zachráněných? Jejich věk? Pracovní pozice? Perspektiva? Zdravotní stav? V závěsu přicházejí i další otázky: škodí japonským dívkám víc milenci skuteční nebo virtuální? Jaký je opak slova „ublížit“, tedy co stanovíme jako ideál, cíl nebo vzor? Před stovkou let jím v našich zeměpisných šířkách byl příkaz „vdát se a mít děti“. Vzdělaná Evropa dnes vymírá a prastarý vzorec se možná opět vrátí do našich domovů a rodin. Není pak virtuální milenec větším škůdcem než sukničkář?

Podobný problém nastane s druhým zákonem. Právníkovi opět probleskávají hlavou nejrůznější záludnosti: Musí robot uposlechnout každý příkaz člověka? Co příkaz hloupý, nepromyšlený, ba dokonce zvrácený? Umělá inteligence bude patrně mnohem chytřejší než člověk, bude schopna ve zlomku vteřiny vzít v úvahu a vyhodnotit řadu okolností a informací, tedy učinit řadu úvah, které by průměrný člověk (přesně ten, o němž hovoří občanský zákoník) nebyl schopen. Má tedy robot i pak uposlechnout? Už dnes přece existují právní normy (například zákon o ochraně spotřebitele), který chrání člověka před neuváženými kroky, které učiní on sám, a předem je prohlašuje za neplatné. Nebude podobnými omezeními trpět i robot? Už slyším, jak takový „domácí pomocník“ na můj pokyn: „Objednej ten drahý automaticky vysavač, co právě inzerují v televizi!“ odpoví: „Takový finanční výdaj je nad tvé možnosti, proto mi zákon přikazuje jej ignorovat.“ Co budeme my lidé dělat pak? Komu budeme spílat a vůči komu budeme uplatňovat škodu, jež nám vznikne?

Nedosti na tom. Napadá mě totiž ještě další potíž. Rodič přikáže domácímu robotu, aby dospívající děti nepouštěl z bytu. Ale pokyn teenagera: „Pusť mě ven!“ je přece také příkazem člověka. To nemusí být žádný problém, pomyslí si čtenář byv přesvědčen, že sám dokáže právníkovi dobře poradit: každý vlastník robota si bude přát, aby robot primárně poslouchal svého majitele.

Právník poslouchá, a přitom se tiše culí pod vousy. Ví totiž, že má o práci postaráno, neboť další robotické zákony budou pamatovat na změnu vlastnictví, insolvenci, nabytí věci v dobré víře, přeměnu jednoho robota v jiného a řadu dalších formálních situací, na jejichž konci stojí opět první Asimovův robotický zákon, který stejně zapoví či znemožní, aby jeden člověk vyslal robota ublížit jinému člověku.

Jak robot pozná, kdo je jiný člověk

Stanice HBO v těchto dnech vysílá sci-fi/westernový seriál West World, v němž zbohatlíci navštěvují zábavní park, umožňující zabíjení a jiné formy násilí vůči robotům, kteří však vypadají jako lidé. Většina robotů svou pravou identitu a původ nezná, tvůrci tedy zjevně některé z literárních zákonů robotiky úmyslně porušili. I kdybychom je však my právníci do budoucích robotických zákonů zanesli, zaděláme si na další problém: z čeho má robot poznat, že člověk před ním je/není robotem? Podle zjevu? Podle řeči? Podle chování? Inteligence?

My právníci jsme navíc vybaveni připraveností zkoumat každé jednotlivé slovo, a pokud se to nám a našim klientům jeví jako nadějné/výhodné/možné/realizovatelné, obracíme každé slovo naruby a ověřujeme, kde je jeho hranice a jaké významy může mít. Nejvyšší soud i soud Ústavní by o naší kreativitě mohl vyprávět, koneckonců k výkladům dopadu jednotlivých slov je v obou případech i sám povolán. A tak si dovedu představit úvahu na téma: „ublížit člověku“. Pokud se totiž můj domácí robot zamyslí nad mou váhou, hladinou cholesterolu nebo alkoholu po probděné silvestrovské noci, možná mi odmítne zpřístupnit obsah ledničky, marcipánový dort vyhodí do drtiče odpadků, nabídne mi mléčný nápoj se sníženým obsahem tuku a pak mě vystrčí na mráz, abych si šla namísto lenošení u televize radši zaběhat. Ubližujeme si přece každým dnem – kouřením, stresem, nezdravým jídlem, nebezpečnými myšlenkami či závistí. A tak budou muset opět právníci přiskočit a definovat míru škodlivosti, resp. hranici, pod kterou ještě robot nemusí zasahovat.

Robot, který ví, kým je

S mnohými známými, s nimiž jsem moje dnešní téma v posledních dnech konzultovala, jako nejpalčivější problém vidí vzpouru strojů – odvěký to strašák, tak často popisovaný v literatuře či zobrazovaný ve filmech, které my dospělí tak rádi sledujeme. Stačí si vzpomenout na sérii s Terminátorem. Naopak informatikové se ničeho podobného neobávají. Pomiňme nyní, zda důvodem je jejich nedostatek představivosti anebo reálná nemožnost. Koneckonců i v onom již zmíněném seriálu West World nakonec roboti odmítnout podřizovat se rolím, které jim předepsali mnohem nedokonalejší lidé, odmítnou poslušnost a odkráčejí za svým IT štěstím. Možná vlastní vědomí umělé inteligence patří skutečně jen do arzenálu literárních autorů, podobně jako roztomilí mimozemšťané a láska, která vše přetrvá.

Třeba je naopak slepou cestou ono praktické omezení, spočívající v robotických zákonech. Buď robot poslechne každého, anebo nikoho. Může tedy každému sloužit, podobně jako lednička nebo kávovar, anebo se v rukou vyšinutého příkazce změní ve zbraň nebo v nástroj nepravostí. Pak budou mít konkurenční výhodu naši potomci – na rozdíl od nás právníků rozumí už dnes IT otázkám mnohem více, jako kdyby se narodili s genem pro ovládání technických prostředků a se zástrčkou pod jazykem. Já mám totiž problém z pěti stejných šedivých ovladačů, které spočívají pod televizí, vybrat ten správný, jímž se ovládá HBO. Na rozdíl od mého syna, který to dokáže i ze zavřenýma očima. Pokud na něj budu pošlu domácího robota, aby ho vyhnal z postele, přinutil uklidit spoušť, která je jeho životním prostorem, vyvětral a sešel včas na novoroční snídani, výsledek nebude odpovídat mému, ale spíš jeho zadání. A o dvě hodiny později je nejspíš oba najdu připojené k počítači, na němž jako jeden tým paří nejrozšířenější on-line hru Legue of Legends.

Psáno pro Rodinné listy

Autor: Daniela Kovářová | karma: 16.44 | přečteno: 617 ×
Poslední články autora