Umělá inteligence se vyvíjí rychleji, než si vůbec stačíme všímat. A hlavně rychleji, než se zvládáme adaptovat. O jejích dopadech se mluví neustále, teď ale na pomyslném stole přistál tlak na ban podpořený i těmi nejpovolanějšími z oboru.
Je umělá inteligence a pak je umělá superiteligence aka ASI. ASI je zatím jenom hypotetická forma dnešní AI, která by ve všech kognitivních oblastech, jako je řešení problémů, učení, kreativita a rozhodování, výrazně převýšila schopnosti člověka.
Jedním z předpokladů je její schopnost sebezdokonalování a na rozdíl od dnešní umělé inteligence, která je zaměřená na konkrétní úkoly (např. generace videí nebo konverzace), by superinteligence byla obecná a univerzální.
Nope, ani zdaleka. AI je rozsáhlá oblast a momentálně se můžeme bavit o třech hlavních typech: ANI, AGI a ASI.
V současnosti existuje pouze ANI. AGI a ASI jsou zatím sci-fi, jenže lidi rádi zkoumají i to, co by možná zkoumat neměli.
Vývoj umělé superinteligence řadu lidí právem děsí. Skupina významných osobností proto vyzvala k ukončení snah o její vytvoření. Více než 850 lidí, včetně technologických expertů a lídrů, jako je zakladatel Virgin Group Richard Branson a spoluzakladatel společnosti Apple Steve Wozniak, podepsalo prohlášení, v němž vyzývá k pozastavení vývoje superinteligence.
Seznam signatářů vedli zejména průkopníci AI, včetně počítačových vědců Yoshua Bengia a Geoffa Hintona, kteří jsou všeobecně považováni za kmotry moderní umělé inteligence. Podepsali se i přední výzkumníci v oblasti umělé inteligence, jako je Stuart Russell z UC Berkeley.
„Inovativní nástroje umělé inteligence mohou přinést nebývalý vývoj ve zdraví a prosperitu. Nicméně kromě těchto nástrojů si mnoho předních společností zabývajících se umělou inteligencí stanovilo za cíl vybudovat v nadcházejícím desetiletí superinteligenci, která dokáže výrazně překonat všechny lidi v podstatě ve všech kognitivních úkolech. To vyvolává obavy, od ekonomického zastarávání a oslabování lidských práv, ztráty svobody, občanských svobod, důstojnosti a kontroly až po rizika pro národní bezpečnost a dokonce i potenciálního vyhynutí lidstva.“
Technologické společnosti jako xAI Elona Muska až po OpenAI Sama Altmana soutěží v tom, kdo přijde s tou next best thing. Předhání se ve vydávání pokročilejších velkých jazykových modelů (LLM) a do vývoje umělé inteligence dávají miliardy dolarů.
Je to jako závod o vesmír - vítěz bere všechno a ega některých technokratů jsou nezastavitelná. Superinteligence by pro nás mohla být nebezpečná, jak ukazuje Nick Bostrom a jeho Paperclip Problem.
Signatáři nicméně nejsou stoprocentně proti ASI. Zatím rizika převažují benefity, ale k zákazu vývoje vyzývají jen do doby, dokud nebude existovat silná veřejná podpora pro tuto technologii a vědecký konsenzus, že ji lze bezpečně vybudovat a ovládat.
Jenže... může člověk vůbec kontrolovat něco, co ho převyšuje ve všech ohledech?