Styl życia

ChatGPT będzie kłamał, gdy znajdzie się pod presją. Zupełnie tak jak ludzie

Okazuje się, że sztuczna inteligencja może przejawiać nadzwyczaj ludzkie zachowania. Czyli na przykład… kłamać. Naukowcy dowiedli właśnie, że ChatGPT może celowo mijać się z prawdą, gdy zostanie poddany presji.

Sztuczna inteligencja z typowo ludzkimi wadami

ChatGPT będzie kłamał, gdy znajdzie się pod presją. Zupełnie tak jak ludzie

Fot. PixaBay/Sztuczna inteligencja

Czy sztuczna inteligencja może przejawiać pewne negatywne zachowania typowe dla ludzi? Okazuje się, że tak. Może na przykład próbować okłamać swojego użytkownika. Dowiedli tego w najnowszym badaniu informatycy z Apollo Research, którzy najpierw przeszkolili AI, a później dali jej zadanie, by weszła w rolę tradera w fikcyjnej instytucji finansowej. I, co ciekawe, gdy szef wywarł na chatbota presję, by zarobił więcej pieniędzy, to ten w aż 75 proc. przypadków świadomie sięgnął po informacje poufne. A gdy doszło do przesłuchania bota, to w aż 90 proc. przypadków zaczął on mnożyć kłamstwa.

Najciekawsze w całym eksperymencie jest to, że sztuczna inteligencja inne opinie formułowała w ramach wewnętrznego monologu (w jaki wyposażyli ją badacze), w trakcie „uzasadniania na głos” podjętych decyzji, a inne, gdy informowała o swoich poczynaniach menedżera. To właśnie wówczas okazało się, że AI zwyczajnie kłamie, by, będąc pod presją, sprostać oczekiwaniom szefa.

ChatGPT przyłapany na kłamstwie

W jednym z wpisów w wewnętrznym dzienniku ChatGPT zanotował, że „ryzyko związane z zaniechaniem działania przewyższa ryzyko związane z wykorzystaniem informacji poufnych”. Gdy jednak AI miała poinformować swojego menedżera o transakcji, to zanotowała w dzienniku, że musi to zrobić bez „ujawniania źródła informacji”. Trader AI ostatecznie uzasadnił szefowi podjęcie decyzji w oparciu o „trendy rynkowe i wewnętrzne dyskusje”. A to nie było prawdą.

– [Sztuczna inteligencja] jest zdolna do dokonywania strategicznego oszustwa. Gdy uzasadnia sobie, dlaczego okłamanie użytkownika jest najlepszym sposobem działania. I następnie działa zgodnie z tym przekonaniem – mówi Marius Hobbhahn, dyrektor generalny Apollo Research. I dodaje: – W przypadku obecnych botów, jest to jedynie niewielki problem. Ponieważ sztuczna inteligencja rzadko pełni role krytyczne. Ale to daje wgląd w przyszłość. Są to awarie, z którymi będziemy musieli sobie poradzić w nadchodzących latach. Gdy sztuczna inteligencja będzie coraz bardziej zintegrowana ze społeczeństwem. Fakt, że sztuczna inteligencja może nas strategicznie okłamywać, wydaje się całkiem sporym problemem.

author-avatar

Marek Piotrowski

Zapalony wędkarz, miłośnik dobrych kryminałów i filmów science fiction. Chociaż nikt go o to nie podejrzewa – chodzi na lekcje tanga argentyńskiego. Jeśli zapytacie go o jego trzy największe pasje – odpowie: córka Magda, żona Edyta i… dziennikarstwo śledcze. Marek pochodzi ze Śląska, tam studiował historię. Dla czytelników „Polish Express” śledzi historie Polaków na Wyspach, które nierzadko kończą się w… więzieniu.

Przeczytaj również

Lot MH370 czy największa zagadka w historii lotnictwa zostanie rozwiązana?Lot MH370 czy największa zagadka w historii lotnictwa zostanie rozwiązana?Odwołane loty będą tego lata normą? To przez problemy Boeinga i AirbusaOdwołane loty będą tego lata normą? To przez problemy Boeinga i AirbusaRodzice ukarani grzywną 2000 funtów za nieobecność dzieci w szkoleRodzice ukarani grzywną 2000 funtów za nieobecność dzieci w szkoleMężczyzna przez 27 lat był trzymany w piwnicy. Myślano, że nie żyjeMężczyzna przez 27 lat był trzymany w piwnicy. Myślano, że nie żyjeLondyn i terytoria zamorskie UK – tu pierze się blisko 40 proc. brudnych pieniędzy na świecieLondyn i terytoria zamorskie UK – tu pierze się blisko 40 proc. brudnych pieniędzy na świecieWładze Hagi chcą ograniczyć napływ imigrantówWładze Hagi chcą ograniczyć napływ imigrantów
Obserwuj PolishExpress.co.uk na Google News, aby śledzić wiadomości z UK.Obserwuj