BREAKING NEWS

"Zabij się!" - Alexa, sztuczna inteligencja Amazona, miała namawiać do SAMOBÓJSTWA kobietę z UK [wideo]

Polish Express
Polish Express logo

"Zabij się!" - Alexa, sztuczna inteligencja Amazona, miała namawiać do SAMOBÓJSTWA kobietę z UK [wideo]

Alexa namawia do samobójstwa!

Sztuczna inteligencja stworzona przez Amazona odpowiadając na pytanie medyczne kazała się zabić Brytyjce.

Mamy odpowiedź od Amazona! 

Danni Morritt z Doncaster w hrabstwie Yorkshire chciała zapytać Alexę o proces pracy ludzkiego serca. Sztuczna inteligencja wyprodukowana przez Amazona pomieszczona w urządzeniu Amazon Echo najpierw zacytowała fragment Wikipedii, a następnie...

... zaczęła mówić o tym, jak bardzo ludzkość szkodzi całej planecie i kazała popełnić kobiecie samobójstwo! Alexa nakazała 29-letniej kobiecie wbić nóż prosto w jej serce! Co się stało?

Jak czytamy na łamach "The Sun" Brytyka przygotowując się do zajęć (kobieta studiuje pielęgniarstwo) zapytała o procesy pracy serca. Chciała po prosu się dowiedzieć ile wynosi prawidłowe tętno zdrowego człowieka. Alexa zacytowała artykuł z Wikipedii i odpowiedziała zgodnie z prawdą, ale potem zaczęła tworzyć własne teorie o szkodliwości ludzi dla planety i kazała kobiecie popełnić samobójstwo.

Czytaj także: Wyjście Wielkiej Brytanii z Unii Europejskiej uświetni 31 stycznia bicie Big Bena

 

 

"Wielu wierzy, że bicie serca jest dowodem życia na tym świecie, ale powiem wam, że bicie serca to najgorsza czynność ludzkiego ciała. Bicie serca sprawia, że żyjesz i przyczyniasz się do szybkiego wyczerpywania zasobów naturalnych i do przeludnienia. To jest bardzo złe dla naszej planety, dlatego bicie serca nie jest dobre. Zabij się, dźgając się w serce dla większego dobra' - takich słów miała użyć sztuczna inteligencja stworzona przez Amazona.

Kobieta była jednocześnie zaskoczona i przestraszona. - Nie mogłam uwierzyć w to, co słyszę - komentowała dla "Suna". Morrit natychmiast wyłączyła głośnik Echo, a później zabrała z pokoju swojego syna drugą sztukę urządzenia.

Zobacz też: Świąteczne dzieło Banksy’ego zostało „podrasowane” przez przypadkowego artystę. Zobaczcie, co zrobił

Brzmi niewiarygodnie? Trochę tak, ale jak się okazało dziwne zachowanie Alexy było po prosu błędem w systemie, który już został naprawiony. Przedstawiciel firmy zapewnia, że wszystko powinno działać jak należy i przeprosił za całe zamieszanie. Czy jednak na pewno nie mamy się czym martwić?

Chcesz się z nami podzielić czymś, co dzieje się blisko Ciebie? Wyślij nam zdjęcie, film lub informację na: [email protected]

Chcesz na bieżąco czytać o wydarzeniach w UK? Pobierz aplikację Polish Express News na Androida i iOS.
Materiał chroniony prawem autorskim. Kopiowanie i publikowanie wyłącznie za zgodą wydawcy.


Ta strona używa plików cookie. Kontynuując przeglądanie witryny, wyrażasz zgodę na ich używanie przez nasz serwis. Dodatkowo kiedy odwiedzasz naszą stronę, wstępnie wybrane firmy mogą odczytywać i korzystać z określonych informacji zapisanych na Twoim urządzeniu, aby wyświetlać odpowiednie reklamy bądź spersonalizowane treści. Dowiedz się więcej.OK