Umělá inteligence přináší mnohem více než jen technologický pokrok; s sebou přináší i celou řadu kontroverzí a etických dilemat. Od chatbotů, kteří se stávají rasisty, po systémy, které nerozeznávají historický kontext – prozkoumejte temnější stranu AI a jaké výzvy představuje pro její tvůrce a společnost jako celek. Tento článek vám nabídne pohled do světa, kde technologie překračuje hranice očekávání a vyvolává palčivé otázky o budoucnosti, kterou pro nás umělá inteligence připravuje.
Přestože jsme s reálným nasazováním umělé inteligence spíše v začátcích, narazili jsme už na celou řadu kontroverzí. Asi nejvýznamnějším problémem je interakce AI s lidmi, kteří mají často tendenci zneužít umělou inteligenci a nebo ji zesměšnit, jak se stalo v případe chatbota Tay.AI od společnosti Microsoft (2016). Pouhých šestnáct hodin od okamžiku, kdy byl chatbot zveřejněn, začal pod vlivem lidí publikovat rasistické zprávy – a přestože se Microsoft pokusil problém vyřešit, ani na druhý pokus se to nepovedlo a projekt musel být stažen.
Opačným problémem trpí umělá inteligence Google Gemini. Ta je specificky navržena tak, aby eliminovala rasové a genderové stereotypy, což se ale velice rychle vymstilo. Ukázalo se, že na požadavek, aby inteligence generovala obrázky nacistů, ochotně vyhověla tvorbou nacistů s černošskými a asijskými rysy, včetně „asijských nacistek“, což celou tu věc otočilo úplně naruby a Google musel přiznat, že se jim tohle nepovedlo.
„Černí nacisté“ nebyl jediný problém Google Gemini, mezi výstupy se objevila i „papežka latinoamerického původu“ a další nesmyslné výstupy. Jejich inteligence naprosto nebrala v úvahu historický kontext a generovala fiktivní historické obrázky zcela bez ohledu na realitu, takže výstupy vypadaly spíš jako parodie. Kritici poukázali na to, že Google ve snaze „napravit historické křivdy naprosto přepisuje historii“, což také není dobře.
Generativní umělá inteligence se stala terčem kritiky autorů, kteří získali dojem, že „jde o největší autorskoprávní krádež v dějinách“. To samozřejmě není pravda, koncept autorských práv je poměrně nový, zatímco znalostní a kulturní výměna má historicky velice dlouhé tradice. Přesto bylo zahájeno několik soudních sporů, které žalují hlavně OpenAI za to, že využili pro učení svých modelů autorská díla bez svolení a nebo argumentují tím, že jejich výstupem je „pouhá koláž“ jiných děl.
To samozřejmě není pravda, rozhodně ne z technického hlediska. Model se učí rozeznávat jednotlivá témata podobně, jako když se na něj dívá člověk – a generuje je doslova ze šumu, tedy z vlastní představy. Proces koláže je zcela odlišný, ale umělci jsou naštvaní a tak je pochopitelné, že se nezajímají o technické detaily.
Situace došla tak daleko, že hackeři vytvořili nástroj Nighshade, který funguje jako „otrávená pilulka“ (poisoned pill). Ten funguje tak, že obrázky popisuje špatně a nebo do nich přidává normálně neviditelný obsah, který způsobí špatnou klasifikaci obrázků a tím poruší učící se model.
Zprávy o podobných nástrojích jsou široce dostupné, ne ale informace o jejich reálné účinnosti a nebo o tom, zda už neexistují nástroje na detekci podobné manipulace. Techniky „otravy dat“ jsou obecné, považují se za jedno z velkých rizik způsobených hackery a protože mohou mít negativní dopady na učení modelů, je velice pravděpodobné, že jejich detekce bude zahrnuta do nějaké fáze přípravy dat.
Známým problémem je fakt, že LLM halucinují, tedy doslova si vymýšlí odpovědi. Současné modely jsou naučené na uzavřené množině vzorů – a když nedokážou odvodit jednoznačnou odpověď, „domyslí“ si do ni „vhodnou odpověď“. Doslova a do písmene si vymyslí věrohodně vypadající nesmysl – a je to problém, který se nedá úplně potlačit.
Problémy s halucinacemi mohou sahat od toho, že model vytváří kontradikce (tvrdí opak něčeho, co tvrdil před chvílí), vytváří odpovědi, které jsou mimo kontext dotazu a nebo tvrdí vyložené nepravdy. Příčiny halucinací mohou být v nekvalitě dat, na kterých byl učen, na metodě, se kterou generuje odpovědi (například že volí generičtější odpověď proti specifičtější) a nebo proto, že model zmate dotaz uživatele a nebo jeho kontext. Kontext ovlivňuje odpovědi – tak například když se modelu zeptáte, jestli zvířata mohou mluvit, správná odpověď by měla být ne, ale například v kontextu pohádkového vyprávění zvířata samozřejmě mluvit mohou.
Většina problémů s halucinacemi spočívá v tom, že model není schopen rozeznat, zda informaci opravdu zná a nebo si ji jenom domyslel, špatně pochopil kontext dotazu (zda se ptáme na fakta a nebo žádáme kreativní odpověď) a nebo uživatel klade dotazy způsobem, ze kterého model špatně odvodí kontext dotazu.
V takovém případu je možné použít techniku více doplňujících vstupů (multi shot prompt) a nebo přeformulovat dotaz do podoby, ve které je vyšší šance na správnou odpověď, čímž se zabývá obor zvaný tvorba vstupů (prompt engineering). Prompt engineering je důležitý při tvorbě aplikací využívajících umělou inteligenci jako službu: Jde o to, jak aplikace, která se dotazuje umělé inteligence, musí formulovat dotaz tak, aby byla nejmenší šance na nesprávnou odpověď.
Jak to bude v případě lidí, kteří často dokážou klást tak zmatené dotazy, že překvapí i jiné lidi, je samozřejmě otázka. To se ale neobejde bez nasazení technologie na populaci a ostrého testování, kde se ukáže jaké jsou limity dotazování se a co bude potřeba udělat pro to, aby odpovědi umělé inteligence byly přesnější.
i
Další seriály Michala Rybka na Alza.cz
V kontextu rostoucího zájmu o umělou inteligenci a vysoké poptávky po AI akcelerátorech se objevují nové alternativy k dominantním řešením, jako jsou ty od Nvidie. AMD, Microsoft, OpenAI, a dokonce i čínské společnosti jako Intellifusion, představují vlastní inovativní čipy a akcelerátory zaměřené na zvýšení výpočetní efektivity a snížení nákladů na AI výpočty. Tento trend ukazuje na diverzifikaci trhu s AI hardwarem a na snahu o vytvoření udržitelnějších a cenově dostupnějších řešení pro budování datacenter a rozvoj AI technologií.