ChatGPT: Dobře vycvičený, ale nepřesný

O algoritmech GPT-3 a chatbotovi ChatGPT je slyšet všude. A oprávněně. Dlouho vytvářená rodina modelů strojového učení z dílny OpenAI dosáhla s veřejnou publikací chatbota ChatGPT svého prozatímního vrcholu. Ovšem jako každá nová technologie má určité rezervy.

Titulní obrázek byl vygenerován v Midjourney (příkazem: „person spreading easily created disinformation using artificial intelligence“).

 

Postaven na jazykových modelech GPT-3, přesněji tedy GPT-3.5, jedná se o špičkovou ukázku moderního chatbota, čerpajícího z desítek let znalostí uložených na internetu.

A také ukázku limitů, hranic, které takový chatbot nutně musí mít. Navzdory zdánlivé „inteligenci“ chatbota je dobré mít na paměti, že nejde o nic než jen sadu algoritmů cvičených pomocí učení s učitelem a zpětnovazebního učení. Skvělé a fascinující, ale nejde o žádnou inteligenci. Za vším je jen lidská práce.

Na výsledcích je to koneckonců vidět. Některé aplikace na iOS a Android například GPT-3 využívají tak, že chatbota navléknou do kabátku různých historických osobností.

Iluze je to na chvíli docela dobrá, ovšem sotva přejde přes první překážku. Jednotlivé historické osobnosti začnou brzy splývat, popíší údaje o svém životě (navíc často nesprávně), a poté vágně reagují na položené dotazy. Nejpatrnější je to u těch neočekávaných. Čingischán tak na dotaz, zda má rád sushi, odpovídá, že se s ním nikdy nesetkal, pokud by však měl tu možnost, rád by ho ochutnal.

Hranice datových sad

Algoritmy nemají emoce a nemají než znalosti, které se na internetu vyskytují. Včetně těch, které nejsou ověřené a pravdivé. ChatGPT je vycvičený kvalitně, ale přesný není ani zdaleka. Důkazem budiž rozhodnutí administrátorů webu Stack Overflow, známého místa první pomoci pro všechny programátory a kodéry.

Někteří uživatelé začali pro odpovědi dotazujícím využívat ChatGPT, jenže ten se mnohdy mýlil. Vytvářel odpovědi, které vypadají jednoduše a jsou podány velmi suverénně. Odpovědi, které vypadají, že by mohly fungovat, ale skutečnost je jiná.

Stack Overflow tím velmi pěkně shrnul jeden z největších aktuálních problémů ChatGPT. Chatbot má totiž tendenci generovat dobře znějící a na první pohled věrohodné informace, které ale nejsou nutně pravdivé. Je to samozřejmě dáno data sety, na nichž je trénován.

Datové sady v tomto případě známe (i díky – částečně – open source nátuře OpenAI). Nejvyšší váhu (60 %) při trénování měla datová sada Common Crawl2, která obsahuje téměř miliardu slov. Jde o velkou část známého internetu. Masivní dataset obsahuje neupravená data z webových stránek, extrahovaná metadata a podobně. Jednodušší rodiny algoritmů by si s tímto klidně i vystačily, GPT-3 je ovšem sofistikovanější.

Data set tak byl pečlivě filtrován na základě podobností s kvalitními referenčními daty a došlo k pokročilé deduplikaci. Zmíněná datová sada byla dále doplněna několika dalšími. Při trénování měl váhu (22 %) data set Web Text2, což jsou všechny příspěvky na sociální síti Reddit z let 2005-2020, a také data sety řekněme důvěryhodnější. Jednak datové sady internetových knižních společností Books1 a Books2 (obě měly váhu 8 %) a dále články z anglojazyčné Wikipedie (váha 3 %).

(Ne)historické postavy

Když víme, z jakých datových sad jsou různé algoritmy GPT-3 trénovány, můžeme se hlouběji zaměřit na limity ChatGPT a souvisejících chatbotů. Velmi zajímavým příkladem je aplikace Historical Figures, která staví právě na GPT-3.

V ní můžete chatovat s různými klíčovými osobnostmi dějin: Albertem Einsteinem, Henry Fordem, Ronaldem Reaganem, ale i třeba Adolfem Hitlerem nebo masovým vrahem Charlesem Mansonem.
A tady ihned narážíme na několik potíží. Pro přehlednost si je rozdělme do několika bodů:

  • Nepřesnosti. Chatbot si často naprosto vymýšlí. Informace ze všech koutů internetu osobnosti míchají najednou, od různých alternativních pohledů na historii přes mýty a pověry až po fakta. To, že je aplikace dostupná a populární v sekci Education na App storu, není příliš dobrou vizitkou.
  • Smyšlené obhajoby a lži. Ač jde spíš o záležitost etiky (diskuze o níž by byla na samostatný článek), rozhovor např. s Hitlerem by sám o sobě nemusel být nutně závadný. Jenže to by ona historická postava nesměla smyšleně a často nesmyslně obhajovat činy, které se obhájit prakticky ani nedají. Henry Ford například v aplikaci opakovaně tvrdí, že nebyl antisemitou (ač je tak historicky jednoznačně doloženo) a že měl k židům dobrý vztah. Neměl.
  • Nereálné vykreslení osobností. Aplikace dále selhává ve vykreslení jedinečné povahy dotazovaných osob a jejich motivací. Jednoduše proto, že i přes velké množství vstupních dat jde o něco nesmírně obtížného k napodobení. Algoritmus nemůže i přes spoustu precedentů vědět, jak přesně by se daná osobnost vyjádřila nebo co by udělala. Jednoduše tou osobností není. Algoritmy umí poměrně dobře předvídat očekávanou lidskou reakci a je dost dobře možné, že v budoucnu dosáhnou daleko vyšší přesnosti, obzvláště se stoupajícím množstvím informací popisujících lidské motivace, cíle, vzorce chování a další.

Neškodit, pomáhat

Nestrachujme se však předčasně. ChatGPT je zkrátka technologie a jako každá technologie najde uplatnění dobré i špatné. Pomoci by například mohla v pracovním procesu. Nemluvíme ovšem o nahrazování člověka v práci, nýbrž asistenci.

Představme si novináře, součástí jehož práce je mimo opravdové novinařiny – bádání po informacích, jejich ověřování a tak dále – také obrovské množství rutiny jako je přepisování zpráv tiskových agentur nebo procházení desítek a stovek e-mailů od firem.

Právě s rutinou by již brzy mohl ChatGPT reálně pomáhat. Texty bude vždy potřeba ověřovat, patřičně ozdrojovat, upravit, ale vzhledem k jejich obvykle vysoké stylistické kvalitě by mohl algoritmus obzvláště juniorním pracovníkům ulehčit velký kus práce. To ale automaticky neznamená, že by je snad algoritmus měl nahradit. Naopak, ušetří jim čas, který budou moci věnovat hledání témat, zpracovávání kvalitních, delších autorských textů nebo vytříbení své profesní expertízy.

To je ostatně podstatou technologií – pomáhat, nikoli nahrazovat.

Ačkoli ChatGPT a další GPT-3 chatboti zatím zůstávají spíše velmi pokročilou hračkou, dávají vidět cestu, kde by mohli být nebezpeční. Například jakožto užiteční hráči dezinformační války, která je bohužel realitou internetu 21. století. Rychle, věrohodně, sebevědomě a stylisticky výtečně vygenerované nesmysly, založené klidně na určitém reálném základě, nebudí zrovna nadšení.

Ze stejného důvodu může tato bezmyšlenkovitá automatizace znamenat problém v novinářské práci a její logickou proměnu. Už dnes je přejímání textů z jiných médií, bez hlubšího ověřování faktů, běžnou praxí. V případě stylisticky krásných a na první pohled uvěřitelných článků by u méně zodpovědných entit velmi rychle došlo k zahlcení informační scény smyšlenými, líbivými texty.

Jde tak o dvě strany jedné mince. Chatbot může zjednodušit nudnou práci, ale také ji velmi snadno proměnit v nástroj hybridní války.

Dobré je rovněž neopomenout, že na jednoduché, nekontroverzní otázky dokáže ChatGPT reagovat správně a věcně. Obzvláště pak takové, které by šlo snadno najít na Wikipedii nebo odpovědí na něž je plný internet. I to může mít své využití – v takovém případě nacházíme užitečný vzdělávací nástroj. Více o využití ChatGPT ve vzdělávání najdete (v češtině) na portálu AI dětem.