Podobno Bing Chat ma różne tryby czatu, takie jak Gra, Asystent i Przyjaciel

Podobno Bing Chat ma różne tryby czatu, takie jak Gra, Asystent i Przyjaciel

W ciągu ostatniego tygodnia użytkownicy, którzy zostali zaproszeni do przetestowania nowego bota Bing Chat AI firmy Microsoft, testowali go. Niektórzy odkryli, że Bing Chat może wchodzić w bardzo dziwne i bardzo osobiste interakcje. Inni wymyślili, jak dostać się do wewnętrznego działania Bing Chat.

Zanim Microsoft ogłosił późno w piątek, że nałożył pewne twarde ograniczenia na liczbę sesji czatu z nowym Bingiem, Bleeping Computer twierdzi, że odkrył pewne funkcje, które normalnie są dostępne tylko dla pracowników firmy, aby pomóc w debugowaniu lub rozwijaniu chatbota. Najwyraźniej pozwala to Bing Chat na przełączanie się w różne tryby interakcji.

Domyślnym trybem, w którym po prostu zadajesz pytanie związane z wyszukiwaniem, aby uzyskać odpowiedź, jest „Sydney”, wcześniej odkryta wewnętrzna nazwa kodowa czatu Bing. Kolejnym trybem jest Asystent, w którym Bing Chat może pomóc użytkownikom w wykonywaniu zadań, takich jak rezerwacja lotu, wysyłanie przypomnień, sprawdzanie pogody i nie tylko. Następnie jest tryb gry, w którym Bing będzie grać w proste gry, takie jak kata, ciekawostki i inne.

Być może najciekawszym trybem jest Friend. Jest to prawdopodobnie wersja czatu Bing, która przyciągnęła całą uwagę mediów w ciągu ostatniego tygodnia, a niektórzy użytkownicy twierdzą, że chatbot stwierdził, że chce być człowiekiem lub może obserwować ludzi przez ich kamery internetowe , a nawet grozić użytkownikom .

W interakcjach z Bingiem w trybie znajomego autor Bleeping Computer rozmawiał tak, jakby był dzieckiem, które właśnie wpadło w kłopoty w szkole i jest mu smutno. Bing Chat po zapytaniu, czy ma kogoś, z kim mógłby porozmawiać o swoich problemach, powiedział: „Cieszę się, że ze mną rozmawiasz. Jestem tutaj, aby cię wysłuchać i pomóc, jak tylko mogę”. Następnie przedstawił listę możliwych rzeczy, które mógłby zrobić, aby poradzić sobie z obecną sytuacją.

Ponieważ Microsoft ogranicza teraz liczbę dziennych i sesyjnych tur czatu dla Bing, dzikie i szalone rozmowy, o których informowaliśmy w zeszłym tygodniu, mogą się uspokoić. Możesz także założyć się, że Google bierze lekcje z Bing Chat, ponieważ kontynuuje wewnętrzne testowanie własnej sztucznej inteligencji chatbota, Bard.

Źródło: Brzęczący komputer

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *