Hlavně se AI neptejte, zda je něco jedovaté

25. 9. 2024 V dřívějších dobách existence generativní umělé inteligence trvalo hodiny, než se notebooky prokousaly těžkopádným kódem, když se modely umělé inteligence pomalu učily psát, hláskovat a nakonec vytvářet podivné a vtipné hlášky nebo recepty. Výzkumnici Janelle Shaneovou kdysi zaujal jeden takových receptů – který měl na seznamu ingredience jako „rozdrobený bourbon“ a „nasekanou vodu“ – natolik, že na svém blogu od roku 2016 popisuje rychlý vývoj neuronových sítí od roztomile neohrabaných až po překvapivě koherentní – a někdy i drásavě chybné.

V knize You Look Like a Thing and I Love You (Vypadáš jako věc a já tě miluji) z roku 2019 Shaneovou rozebrala, jak umělá inteligence funguje a co od ní můžeme (a nemůžeme) očekávat, a její nedávné příspěvky na blogu AI Weirdness se zabývaly bizarními výstupy algoritmů generujících obrázky , pokusy o ASCII umění a sebekritiku ChatGPT a dalšími drsnými hranami umělé inteligence. Rozhovor se Shaneovou (vyšel v časopise Scientific American) se týkal i toho, jak a kde by se AI rozhodně neměla používat a zda lze někdy plně důvěřovat přesnosti chatbotů. Následuje upravený a zkrácený přepis rozhovoru.

Jak se změnila generativní AI za ty roky, co trénujete a hrajete si s chatboty?

Kolem umělé inteligence je mnohem větší komerční šum, než když jsem se jí začala zabývat. Tehdy byl, myslím, překladač Google jednou z prvních velkých komerčních aplikací, které lidé z celé této konstelace technik strojového učení AI viděli. Existoval náznak, že by jich mohlo být více, ale v té době to byla rozhodně spíše doména výzkumníků.

Některé věci se nezměnily, například tendence lidí číst hlubší význam textu, který z těchto technik získáte. Význam budeme vidět i v náhodném poletujícím listu, který fouká přes chodník….. S tím, jak se text stává složitějším, dostává do hlavních článků a hlavních novin humkuk. S tím, jak se tyto nástroje stávají dostupnějšími, pozorujeme také větší tendenci lidí zkoušet je na všechno a zkoušet, co se uchytí.

Vždy jsem se zaměřovala na rozdíly mezi tím, jak umělá inteligence generuje text, a tím, jak píší lidé, protože podle mě právě tam můžete narazit na něco zajímavého a nečekaného a na něco nového…..

Vidět všechny ty závadné odpovědi a podivné generování textu je také zábavný způsob, jak získat nějakou intuici, kterou si z toho můžete odnést. Tohle si můžete zapamatovat, pokud se snažíte přemýšlet: „Ach ano, můžu to použít k označení všech snímků v prezentaci, abych nemusel psát přístupné popisky?“. Odpověď zní: Vytvoří to popisky, ale musíte je opravdu zkontrolovat kvůli všem těm chybám.

Jedna věc je říct, hele, není to úplně přesné. Jiná věc je mít na paměti příběh o neposkvrněné žirafě. V zoologické zahradě v Tennessee se v roce 2023 narodila žirafa bez skvrn. Naposledy se to stalo v době před internetem, takže na internetu nebyly téměř žádné obrázky žirafy bez skvrn. Bylo velmi zajímavé sledovat, jak všechny tyto algoritmy pro označování obrázků popisují tuto žirafu a zahrnují popisy skvrnité srsti, protože to se prostě očekávalo.

To je příklad něčeho neočekávaného, co si tento algoritmus neměl šanci zapamatovat, vybruslit z toho nebo tento nedostatek hlubšího porozumění skrýt. Najednou tu máte tento případ, který odhaluje, že se na skvrny ve skutečnosti nedívá. To je důvod, proč je glitch art důležitý, proč jsou tyto chyby důležité.

Občas také poukazujete na místa, kde generativní umělá inteligence vyniká – mám na mysli zejména příspěvek, ve kterém jste požádali GPT-3, aby odpověděl na otázky, jako by sám byl „utajená veverka„, a ukázali jste, jak dokáže demonstrovat fiktivní vnitřní život. (pozn. Výraz „secret squirrel“ , resp. tajné věci veverek“ používají lidé pracující v amerických zpravodajských službách jako neodpovídající odpověď na otázku v případě popisu materiálů, které jsou utajované. Někteří vojenští důstojníci obeznámení s touto kreslenou postavou zřejmě začali frázi „tajná veverka“ používat v žertu pro označení vysoce utajovaných programů a misí s kódovým označením. To se ujalo a brzy začala frázi používat celá zpravodajská komunita. Tajná veverka byla parodií špionážního žánru a většina kraťasů parodovala prvky filmů o Jamesi Bondovi. Tajná veverka byla také známá jako „Agent 000“ . )

Opravdu jsem chtěla udělat díru do argumentu, že pokud tyto textové generátory dokážou popsat zkušenost, že jsou vnímající, musí být vnímající, protože to bylo a stále je narativ, který koluje: „Podívejte se, AI říkala, že je vnímavá, má myšlenky a pocity a nechce se jen nechat zaměstnat generováním textu.“ Chtěla jsem poukázat na to, že ačkoli umělá inteligence dokáže popsat zkušenosti, jako by byla utajená veverka, neznamená to, že ve skutečnosti veverkou je.

Máte pocit, že v generativní AI došlo ke skutečnému velkému kvalitativnímu posunu, nebo vám cesta od „nasekané vody“ k „tajným veverkám“ připadala postupná?

…bylo to postupné, ale určitě se jednalo o spoustu přírůstků – miliony dolarů výpočetního času. Takže se to určitě rozrostlo a změnilo. Na druhou stranu druhy chyb, které z těchto algoritmů vidíte, jsou stejné, které se v nich vyskytovaly už od samého počátku.

Svou knihu jste pojmenoval podle hlášky generované umělou inteligencí, která je tak zvláštní, až krouží kolem, aby byla okouzlující. Měl by dnes titulek na obálku vygenerovaný umělou inteligencí stejné kouzlo, nebo by to byla jen depresivní verze internetových hlášek?

Mám podezření, že dnes by to byl depresivní remix internetových balicích hlášek. Bylo by těžké vymyslet nějakou jedinečnou…. Mám opravdu strašně ráda glitchový, napůl zkomolený text z těch raných neuronových sítí, které běžely na mém notebooku. Na té jednoduchosti a naprosté rozháranosti textu je něco, co mi mimoděk přišlo vtipné. ChatGPT a všechny ty textové generátory, které mají lidé dnes k dispozici na hraní – je skoro škoda, že generují tak koherentní text.

Mám pocit, že ta koherence je také trochu děsivá v tom, že vidím, jak se lidé ptají umělé inteligence na něco jako „Je tohle a tohle pro psy jedovaté?“. Vím, že vám odpoví, ale prosím, neptejte se jí na to!

Přesně tak. Existuje tolik příkladů, kdy toxikologové říkají: „Tato konkrétní rada je nebezpečná….. Tohle nedělejte.“ A může to prostě vyjít z algoritmu.

Protože odpověď tak koherentní a často proto, že je to zabaleno a prodáváno jako něco, co budí dojem, že to vyhledává informace, jsou lidé vedeni k tomu, aby tomu věřili. (pozn. AI informace nevyhledává, ale generuje odpovědi z uložených textových schémat tréninkové množiny, proto odpovědi trpí nepřesnostmi, podobně jako generátory obrázků, kde nesedí odpovídající počet tlapek k počtu kočiček na obrázku. V případě koherentního textu je snadno přehlédnutelné, že odpověď je buď špatná, nebo není přesná, protože se přibližuje nejčastěji opakovanému textu v tréninkové množině a tedy naplňuje nechvalné „1000 krát opakovaná lež stává „pravdou“ “ – to je mimochodem důvod, proč byla AI v některých státech zakázaná na školách. Neboť odráží „nic než názor“ převažující v tréninkové množině, a tím pádem je nebo mohla být manipulována a neposkytuje exaktní údaje s dostatečnou přesností, zárukami, citacemi atd.)

Existují některé nechvalně známé knihy o sběru hub generované umělou inteligencí, které obsahují vyloženě nebezpečné rady. Nepředpokládala jsem, že lidé budou prodávat vygenerované knihy, aby vydělali peníze, aniž by se zajímali o to, kolik času lidí tím promarní, nebo [že lidi] vystaví skutečnému nebezpečí….. Nepředpokládala jsem, že lidé budou ochotni používat texty, které jsou chybné nebo nejsou ve skutečnosti správné nebo jsou jakousi ztrátou času na čtení, i když pro ně bude existovat trh.

Předpokládáte, že generativní umělá inteligence bude nakonec přesná?

Způsob, jakým se nyní snažíme tyto algoritmy používat jako způsob vyhledávání informací, nás ke správným informacím nepřivede, protože cílem během tréninku je, aby výstupy zněly správně a byly pravděpodobné, a není v nich nic zásadního, co by bylo spojeno s přesností v reálném světě nebo s přesným vyhledáváním a citováním správného zdrojového materiálu.

A vím, že lidé se k tomu snaží takto přistupovat a takto to prodávat v poměrně velkém množství aplikací. Myslím, že je to zásadní nesoulad mezi tím, co lidé požadují, tedy vyhledávání informací, a tím, k čemu jsou tyto věci vlastně vycvičeny, tedy aby zněly správně.

Cokoli, co děláte, kde by bylo důležité mít správnou odpověď, není pro generativní umělou inteligenci dobré využití. A zkreslení je stále problém. Mnoho povrchních nepříjemností se podařilo vyhladit jemným laděním a dodatečným tréninkem, ale vstupní data, která jsme těmto algoritmům poskytli, se nijak zásadně nezměnila. Zkreslení tam stále je a chyba je stále měřitelné a stále má vliv na to, co z nich dostáváme.

Vytlačuje humbuk kolem generativní umělé inteligence jiná dobrá využití umělé inteligence?

Existuje spousta lidí, kteří se v tichosti pouštějí do práce a využívají techniky AI k užitečným věcem, které nemohli vyřešit jiným způsobem. Například ve výzkumu v oblasti objevování léků to byl docela velký úspěch, protože můžete použít více technik AI šitých na míru, abyste vyzkoušeli různé kombinace léků a přišli na slibné formace, a pak, což je zásadní, je jít otestovat do laboratoře a zjistit, zda se skutečně osvědčí.

Lidé tyto modely používají i v případech, kdy trocha nepřesnosti nevadí. Mám na mysli například přepis hlasové pošty. Pokud je dostatečně nepřesný, musíte si ho poslechnout, fajn, ale podstatu získáte, aniž byste museli sedět u běžného hlasového záznamníku. Myslím si, že právě v těchto malých aplikacích umělé inteligence je skutečně hodnota a myslím si, že zde může být dlouhodobý úspěch.

Sarah Lewin Frasierová je asistentkou editora zpravodajství časopisu Scientific American. Plánuje, zadává a rediguje rubriku Advances v měsíčníku a také edituje online zprávy. Před nástupem do Scientific American v roce 2019 psala kroniku cesty lidstva ke hvězdám jako pomocná redaktorka na webu Space.com.