0:00
0:00

0:00

Prawa autorskie: Il. Mateusz Mirys / OKO.pressIl. Mateusz Mirys / ...

W pierwszej połowie 2025 roku w mediach zaczęły się regularnie pojawiać dość niepokojące nagłówki ostrzegające, jakoby sztuczna inteligencja „zignorowała polecenie człowieka i odmówiła wyłączenia się”, czy też „ukrywała prawdziwy sposób rozumowania”. Z kolei inne brzmiały wprost złowieszczo: „Sztuczna inteligencja gotowa szantażować, aby wymknąć się spod kontroli ludzi”.

Doniesienia te opierały się głównie na serii niedawnych prac nad modelami językowymi dotyczących zjawiska określanego jako „knucie” czy „spiskowanie” (ang. scheming). Odpowiedzi na pytanie, co rozumieć przez te pojęcia udzielają badacze z brytyjskiego AI Security Institute, którzy systematycznie, a przy tym krytycznie przyjrzeli się takim badaniom.

„Knucie” oznacza, że modele SI miałyby być w stanie „autonomicznie dążyć do własnych celów”, mogących zarazem naruszać ustalone normy społeczne lub być co najmniej niepożądane z perspektywy badaczy i twórców – tak jak wspomniane wyżej kłamstwa, oszustwa czy sabotaż.

Co więcej, modele mogłyby realizować takie cele pomimo, a nawet wbrew, ludzkim instrukcjom. Jednocześnie mogłyby „nie przyznawać się” do tego, a nawet celowo „ukrywać” ten fakt przed ludźmi czy wręcz intencjonalnie ich „okłamywać”.

Co więcej, modele mogłyby realizować takie cele pomimo, a nawet wbrew, ludzkim instrukcjom. Jednocześnie mogłyby „nie przyznawać się” do tego, a nawet celowo „ukrywać” ten fakt przed ludźmi czy wręcz intencjonalnie ich „okłamywać”.

Wreszcie, zakłada się niekiedy, że modele SI miałyby nawet „być świadome” tego, że są odpytywane czy testowane i w związku z tym np. próbować modyfikować swoją odpowiedź.

Te antropomorfizujące doniesienia niejednokrotnie przypisywały tej technologii również coś na kształt „instynktu przetrwania”, dzięki któremu miałaby „nauczyć się, jak przeżyć czy »chronić samą siebie«.

Jeszcze inne teksty opisywały niedawny pomysł firmy Anthropic, by (być może „profilaktycznie”) „zadbać o dobrostan AI”.

;
Na zdjęciu Jacek Mańko
Jacek Mańko

Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.

Komentarze