Refresh the page

Otázky kolem zodpovědnosti umělé inteligence – Je AI jen věc? Kdo za ni odpovídá?

Aktualizováno • Autor: Michal Rybka

Jeden ze základních problémů, jak integrovat plně autonomní umělou inteligenci do naší společnosti, souvisí s tím, jak se na ni bude dívat právo, jaký status AI získá. To není jednoduchý problém, protože se týká zodpovědnosti za rozhodování. Pokud se AI bude rozhodovat sama – kdo ponese následky za její rozhodnutí?

Zodpovědnost AI

Otázky kolem zodpovědnosti umělé AI – OBSAH

  1. V čem tkví problém rozhodování AI?
  2. Kdo má mít za AI zodpovědnost?
  3. Je AI věc, nebo něco jiného?

V čem tkví problém rozhodování AI?

Základním příkladem je takzvaný problém s tramvají (Trolley Problem), což je etický myšlenkový experiment týkající se otázky, zda je lepší nechat proběhnout přirozenou katastrofu, nebo do ní vstoupit a tím vědomě způsobit jinou, i když možná menší katastrofu. Problém je popisován takto: Po kolejích se řítí neovladatelná tramvaj a vy ovládáte výhybku. Pokud ji nepřehodíte, tramvaj zabije pět lidí. Pokud ji přehodíte, zabije „jenom“ jednoho člověka.

Automobil Tesla
Praktickým příkladem problematiky rozhodování a odpovědnosti může být uvažování o provozu autonomních vozidel.

Spolu se Spockem a oborem zvaným etický kalkulus bychom mohli říci, že „potřeby mnoha převažují potřeby mála“ (The needs of the many outweigh the needs of the few), a tedy, zcela logicky, je třeba přehodit výhybku. Problém je v tom, že pokud necháme tramvaj být, jde o nehodu či „akt Boží“, zatímco pokud ji přehodíme, jde o vědomé zabití, na což se dívá náš právní systém zcela jinak.

Dobře, pak bychom mohli říci, že AI bude prostě nekonat, což je ale také problém v situaci, kdy konat může. Dá se totiž argumentovat, že její vědomé nekonání je vlastně formou vědomého zabití těch pěti nešťastníků. Protože filozofové v této otázce nejsou schopni najít jednotu a mohou si vlasy ve sporech vytrhat, mohli bychom jednoduše akceptovat morální kalkulus a říci, že zachránit pět je vždy lepší, než zachránit jednoho.

Pak přichází další otázky: Co když do myšlenkového příkladu dosadíme nějaký další parametr, například budeme schopni rozeznat, kdo na kolejích leží? Co když to bude pět důchodců versus jedna mladá matka? Je ten problém stále stejně jednoduchý? Tuhle věc můžeme neomezeně rozvíjet – stejně jako soud může donekonečna rozebírat argumenty pro a proti i u případů, kdy byl čas pro rozhodování extrémně omezený.

Kdo má mít za AI zodpovědnost?

Ne vždy ta věc dopadne tak jednoznačně, jako když se kapitán Sully Sullenberger rozhodl pro nouzové přistání v Hudsonu v zimě 2009: Často to pro někoho dopadne špatně – a pak se hledá viník. Kdo je ale viník v případě havárie zaviněné autonomní AI? AI není subjektem práva, nelze ji pohnat k zodpovědnosti – a vlastně se dnes ani úplně přesně neví, jaký právní status by měla mít. Je za ni zodpovědný vývojář, který ji tvořil? Výrobce, který ji implementoval do koncového zařízení? Uživatel, který ji měl supervidovat?

Osoba s nápisem AI na tričku
Kdybychom chtěli hnát za činy AI k zodpovědnosti člověka, tak kterého?

Dnes se právo drží výkladu, že řidič autonomního auta je zodpovědný za chování svého vozidla stejně, jako pilot má monitorovat činnost svého autopilota. Jinými slovy: Právo nechce přesunout zodpovědnost ze člověka na stroj, což komplikuje skutečně autonomní AI.

Pokud za řízení autonomního auta zodpovídá řidič, kdo za ni bude zodpovídat, když budeme mít například zcela autonomní taxíky? Pasažér taxi nepochybně ne, ten si jen zaplatil dopravní službu. Bude to někdo, kdo bude auta centrálně supervidovat z dispečinku? Zavedeme tu věc a počkáme, až se stane první malér, aby rozhodl soud? Nebo k tomu přistoupíme konzervativně a budeme žádat, aby tam vždy nějaký řidič byl?

Je AI věc, nebo něco jiného?

Kdyby AI získala právní subjektivitu, mohl by to být velký malér, protože subjekt práva může sám vyvolávat spory – a na spor mezi autonomním autem a jeho majitelem celkem jistě ještě připraveni nejsme. Objevují se návrhy vyššího stupně ochrany, kterou mají například zvířata: Zvíře bylo donedávna z hlediska práva „věc“ (res), to ale dovolovalo i kruté nakládání, a proto se zavedly zákony na ochranu zvířat, které jim sice nedávají subjektivitu, ale zajišťují jim vyšší ochranu, než mají věci.

Římské Koloseum
Co by tak mohla mít AI společného s římskými otroky?

To samozřejmě časem povede také k problémům, protože je jenom otázkou času, než si někdo všimne toho, že tím dostaneme autonomní AI do prakticky stejné pozice, kterou měli římští otroci: Oproti laickým předpokladům nebyl otrok „jenom věc“, ale i když neměl právní subjektivitu, požíval ochranu, například majitel ho nemohl bezdůvodně zabít, nesměl otrokovi vzít jeho majetek nebo ho ponechat bez šatů a bez potravy.

Římské právo nakládání s otroky systematicky regulovalo, protože situace, kdy se otrok dostal na svobodu (stal se propuštěncem), byly naprosto běžné a týkaly se nemalého procenta obyvatelstva. Podobnou ochranu měli otroci i v rámci islámského práva šaría, zvláště pokud šlo o muslimy – opravdu nelze tvrdit, že byli pánům odevzdáni na milost a nemilost.

i V AlzaMagazínu pro vás máme i další články:

Stav, kdy se po dvou tisících letech obloukem vracíme k Aristotelovi a jeho obhajobě otroctví jako přirozenému stavu, je ale pochopitelně nepřijatelný pro většinu světa. Po jistou dobu bude možné autonomní AI držet pod speciální regulací, ale jednoho dne se stejně dostaneme k otázce právní subjektivity. Zvláště, když začne AI vykazovat rysy inteligence srovnatelné s lidskou. A to, jak se rozhodneme potom, bude pro naši budoucnost s AI velmi důležité!

Try our cookies

Alza.cz a. s., Company identification number 27082440, uses cookies to ensure the functionality of the website and with your consent also to personalisage the content of our website. By clicking on the “I understand“ button, you agree to the use of cookies and the transfer of data regarding the behavior on the website for displaying targeted advertising on social networks and advertising networks on other websites.

More information
I understand Detailed settings Reject everything
P-DC1-WEB22