Jazykové modely jako ChatGPT, nebo Google Gemini jsou chytřejší než kdy dřív, ale pořád nemyslí jako člověk. Co kdyby ale umělá inteligence zvládla nejen predikovat slova, ale i skutečně přemýšlet, plánovat a chápat svět stejně se jako my?
Nástup velkých jazykových modelů (anglicky large language models aka LLM) znovu rozdmýchal debatu o dosažení obecné umělé inteligence (anglicky artificial general intelligence aka AGI), tedy takové AI, která by přemýšlela stejně jako člověk. Přestože jsou dnešní systémy inteligentnější než kdy dříve, odborníci uvádí, že samy o sobě této úrovně pravděpodobně nedosáhnou.
Společnost OpenAI, stojící za jazykovým modelem ChatGPT, představila v září model o1, který má pracovat způsobem blížícím se lidskému myšlení. Na místě je tak otázka, kdy bude umělá inteligence schopná zvládnout stejné kognitivní úkoly jako lidé - tedy nejen zpracovávat informace, ale také abstraktně uvažovat, plánovat a rozhodovat se, co se naučit a na co se zaměřit.
Stvoření AGI by mohlo pomoci řešit globální výzvy jako klimatické změny, pandemie nebo hledání léků na vážné nemoci. Na druhou stranu existuje i riziko, že bychom nad tímto nástrojem mohli ztratit kontrolu.
Pojem obecná umělá inteligence se poprvé dostal do povědomí v roce 2007. V minulosti bylo zřejmé, že k AGI máme ještě daleko a příkladem byly umělé inteligence, které například dokázaly porazit lidské šampiony v šachu, ale byly zcela nepoužitelné pro jiné úkoly.
Velké jazykové modely jako o1, Claude, nebo Google Gemini nyní mění situaci. LLMs zvládají pestrou škálu úkolů a své předchůdce předčí v porozumění textu, programování nebo řešení matematických problémů. Jejich schopnosti se však stále zakládají na statistické analýze dat a predikci dalších slov v sekvenci, což není totéž jako skutečné myšlení.
Jedním z pokroků, kterých LLMs dosáhly, je tzv. řetězec myšlení, který modely vede k logickému rozkládání složitých úkolů na menší kroky. Tento přístup výrazně zlepšil jejich výkonnost v matematických testech. Nicméně vícestupňové plánování nebo abstraktní uvažování jim zatím dělá problém.
Další výzvou je zpětná vazba a schopnost adaptace. Lidské mozky neustále porovnávají své vnímání reality s novými informacemi a upravují je. Současné AI systémy tuto schopnost postrádají. Pokud se setkají s něčím, co nebylo v jejich tréninkových datech, jejich výkon rychle klesá, protože na to nejsou připravené.
Abychom se přiblížili AGI, budou AI systémy potřebovat schopnost vytvářet tzv. světové modely, tedy představy o realitě, které jim umožní předpovídat důsledky různých akcí a uplatňovat získané poznatky v nových situacích. Některé studie naznačují, že se v LLMs už různé formy světových modelů objevují, ale zatím nejsou spolehlivé.
Dalším klíčovým prvkem je zpětná vazba. Lidské myšlení neustále předává informace mezi různými částmi mozku, což nám umožňuje průběžně upravovat vnímání reality. AI systémy tuto schopnost nemají a spoléhají na externí kontrolní mechanismy, které opravují jejich chyby. Tyto verifikátory je však nutné ručně nastavovat pro každý úkol zvlášť.
I když vědci neočekávají, že bychom v nejbližších letech dosáhli skutečné AGI, věří, že není teoretická překážka, která by to znemožňovala. Otázkou zůstává, kdy a za jakých podmínek se tak stane.
Zdroj: www.nature.com