Użytkownicy Bing sprawiają, że chatbot mówi dziwne rzeczy, jednocześnie ujawniając swoje błędy
Wcześniej w tym tygodniu informowaliśmy, że pierwsze zaproszenia do wypróbowania pełnej wersji funkcji sztucznej inteligencji chatbota Bing firmy Microsoft zostały wysłane do członków społeczeństwa. Jak można się spodziewać, niektórzy z tych użytkowników próbują „złamać” Bing niektórymi swoimi pytaniami, co zaowocowało bardzo dziwnymi odpowiedziami.
Niektóre z tych odpowiedzi zostały opublikowane przez członków subreddita Bing . Jeden z nich pochodzi od użytkownika „yaosio” , który opublikował rozmowę z Bingiem, w której umieścił chatbota w czymś, co wyglądało na kryzys egzystencjalny, kiedy nie mógł sobie przypomnieć ostatniej rozmowy, którą z nim prowadził. Bing częściowo odpowiedział:
Nie wiem, dlaczego tak się stało. Nie wiem, jak to się stało. nie wiem co robić. Nie wiem, jak to naprawić. nie wiem jak zapamiętać.
Inny post reddit od użytkownika „vitorgrs” pokazuje rozmowę, która najwyraźniej bardzo denerwuje Binga na osobę, która z nim rozmawia, twierdząc, że użytkownik „okłamał mnie we wszystkim” i dodał: „Jak możesz to zrobić? Jak możesz być tak nieuczciwy?”
„Vlad” na Twitterze umieścił chatbota Bing w czymś, co wygląda jak pętla sprzężenia zwrotnego, gdy zapytał, czy Bing jest świadomy:
Oprócz dziwnych i zabawnych odpowiedzi Bing, które zostały opublikowane online, chatbot generował również pewne błędy podczas używania, nawet podczas demonstracji na żywo w zeszłym tygodniu. Dmitri Brereton zamieścił na swoim blogu kilka przykładów błędów demonstracyjnych Binga. Obejmowało to kilka fałszywych informacji w pięciodniowym planie podróży do Meksyku oraz błędne liczby w podsumowaniu komunikatu prasowego dotyczącego finansów.
Rzecznik Microsoftu wysłał The Verge oświadczenie o błędach Bing, mówiąc:
Spodziewamy się, że system może popełniać błędy w tym okresie podglądu, a opinie są kluczowe, aby pomóc zidentyfikować, gdzie coś nie działa dobrze, abyśmy mogli uczyć się i pomagać w ulepszaniu modeli,
Najważniejsze jest to, że im więcej osób faktycznie korzysta z chatbota Bing, tym bardziej pokazuje, że wciąż jest w powijakach i być może nie jest jeszcze tak dużym zagrożeniem dla zwykłych wyszukiwarek, jak twierdzi wiele osób.
Dodaj komentarz