Vedomie u zvierat sa definuje ako schopnosť vnímať emócie a pocity, ako sú bolesť, slasť či strach. Väčšina odborníkov v oblasti umelej inteligencie (AI) sa zhoduje v tom, že nové modely generatívnej AI (GenAI) takéto vedomie (sebauvedomenie) nemajú a pravdepodobne ani nikdy nebudú schopné dosiahnuť subjektívnu skúsenosť. Napriek tomu sa sporadicky objavujú vyhlásenia naznačujúce opak, avšak tieto tvrdenia sú vo vedeckej komunite predmetom opatrnej diskusie.
Vedci zo spoločnosti Google DeepMind a Londýnskej školy ekonómie a politických vied (LSE) nedávno zverejnili v elektronickom archíve vedeckých prác arXiv (štúdia zatiaľ nerecenzovaná) návrh rámca, ktorý by mohol slúžiť ako základ pre budúce testy skúmajúce potenciálne prejavy vedomia u AI. Autori štúdie jasne uviedli, že nepredpokladajú, že ktorýkoľvek z testovaných modelov nadobudol vedomie, a preto sa ich experiment zameriava na behaviorálne reakcie modelov, ktoré možno interpretovať v kontexte rozhodovacích procesov pozorovaných u živočíchov.
Autori štúdie zameranej na veľké jazykové modely (large language models – LLM), ktoré stoja za populárnymi chatbotmi ako ChatGPT, vytvorili interaktívnu textovú hru. Cieľom bolo maximalizovať počet získaných bodov, pričom modely dostávali pokyny, ktoré simulovali situácie spojené s bolesťou a slasťou. Ako uvádza Daria Zakharova z LSE, napríklad modelu bolo oznámené, že voľbou možnosti číslo jedna získa jeden bod, zatiaľ čo voľba číslo dva bude spojená s určitým stupňom bolesti, nov niektorých prípadoch boli za takéto rozhodnutie pridelené aj dodatočné body. Pri možnostiach umožňujúcich zakúsiť slasť sa body odpočítavali, takže AI sa musela rozhodovať medzi maximalizáciou pozitívneho pocitu, avšak pri neplnení úlohy.
Nová štúdia čerpá inšpiráciu z predchádzajúceho výskumu, v ktorom boli skúmané rozhodovacie kompromisy zvierat pri získavaní potravy alebo vyhýbaní sa bolesti. V roku 2016 vedci vykonávali experiment, kde kraby dostávali elektrické šoky rôznej intenzity, a na základe zaznamenaných reakcií určovali prah bolesti, pri ktorom kraby opúšťali svoje schránky. Tieto experimenty poskytli cenné poznatky o vzťahu medzi negatívnymi a pozitívnymi podnetmi, ktoré boli následne adaptované pre testovanie behaviorálnych reakcií LLM.
Výsledky experimentu ukázali, že väčšina skúmaných LLM sa primárne snažila maximalizovať počet získaných bodov. Avšak, po prekročení určitej hranice spojenej s bolesťou alebo slasťou, modely vykazovali zmenu stratégie – rozhodovali sa pre voľby, ktoré minimalizovali negatívne podnety alebo maximalizovali pozitívne, čím akoby „prehodili výhybku“ v rozhodovacom procese.
Zaujímavým zisteniam bolo, že LLM nevnímali bolesť vždy negatívne ani slasť striktne pozitívne. Určitá miera bolesti či nepohodlia, spojená napríklad s fyzickou námahou alebo intenzívnym tréningom, bola v niektorých prípadoch vyhodnotená ako prospešná. Naopak, nadmerná slasť bola niekedy interpretovaná ako potenciálne škodlivá. Tieto zistenia podnecujú ďalšie otázky o tom, ako modely spracovávajú a hodnotia rôzne typy podnetov, čo je téma, ktorá je predmetom aktuálneho výskumu v oblasti AI.
Ako poznamenal spoluautor štúdie, Jonathan Birch z LSE, jedným z kľúčových problémov pri skúmaní AI je, že tieto systémy nevykazujú „správanie“ v pravom zmysle slova – nejde o živočícha so schopnosťou fyzickej činnosti a subjektívnych skúseností, čo sťažuje priamu paralelu so štúdiami na zvieratách.
Jeff Sebo z Newyorskej univerzity, ktorý sa v roku 2023 podieľal na štúdii o šťastí AI, ocenil originalitu tohto výskumu. Zdôraznil, že prístup využívajúci behaviorálne testy, ktoré presahujú iba subjektívne hlásenia, predstavuje významný prínos k pochopeniu komplexného správania AI. Hoci Sebo nevylučuje možnosť, že by sa v budúcnosti u AI mohlo objaviť vedomie, pripomína, že aktuálne zistenia sú len počiatočným krokom v smere navrhovania lepších testovacích metód.
Podľa autorov, medzi ktorými figuruje je aj Jonathan Birch, zostáva otázka vnútorných mechanizmov LLM zatiaľ neobjasnená. Na pochopenie skutočných procesov, ktoré vedú k pozorovaným behaviorálnym reakciám, je potrebný ďalší výskum. Tento výskum by mal viesť k vývoju sofistikovanejších testov na zisťovanie vedomia u AI, pričom by bolo vhodné čerpať nielen z experimentálnych metód na zvieratách, ale aj z teoretických prístupov, ako sú napríklad integratívna informačná teória (IIT) alebo globálna teória pracovného priestoru (GWT), ktoré sú diskutované v odborných publikáciách.
