Wygląda na to, że Microsoft po prostu nie potrafi prawidłowo obsługiwać chatbotów AI
W ciągu ostatnich kilku tygodni wiadomości związane ze sztuczną inteligencją (AI) zdominowały nagłówki gazet. Było to głównie spowodowane wspieranym przez Microsoft chatbotem OpenAI, a także zintegrowanym chatbotem w nowym Bing. Chociaż wiele osób było pod wrażeniem możliwości zaprezentowanych przez generatywną sztuczną inteligencję – miliony zapisały się na ograniczoną wersję zapoznawczą nowego Bing – w ciągu ostatnich kilku dni pojawiły się również znaczące problemy z obecną implementacją.
Użytkownikom nowego Binga udało się zmusić zintegrowanego chatbota do powiedzenia kilku naprawdę szalonych rzeczy, w tym twierdzeń, że szpiegował swoich programistów przez kamery internetowe ich komputerów, a nawet zakochał się w niektórych z nich. Sztuczna inteligencja również wyraziła chęć zostania człowiekiem, co widzieliśmy w przeszłości u innych chatbotów. Sztuczna inteligencja wyświetlała również błędy rzeczowe, odpowiadając również na obiektywne pytania. Wszystko to stało się problematyczne do tego stopnia, że Microsoft musiał narzucić twarde ograniczenia długości i charakteru rozmów prowadzonych z sztuczną inteligencją, aby zmniejszyć szaleństwo.
Oczywiście nic z tego nie oznacza, że Bing Microsoftu stał się świadomy. Dziwne odpowiedzi chatbota są tylko produktem ubocznym dużego modelu językowego zbierającego informacje z całego Internetu (w tym forów z treściami generowanymi przez użytkowników) w celu zidentyfikowania wzorców w rozmowach i odpowiedniego wygenerowania odpowiedzi. Jednak najnowszy eksperyment Microsoftu pokazuje, że dobrze wychowane chatboty AI nadal stanowią wyzwanie dla firmy i być może dla pionierów technologii jako całości.
Już w 2016 roku – kiedy Cortana wciąż żyła i miała się dobrze – Microsoft uruchomił chatbota o nazwie „Tay” na Twitterze. Z natury był podobny do nowej sztucznej inteligencji Bing, w tym sensie, że można było z nią swobodnie rozmawiać, nawet za pośrednictwem wiadomości bezpośrednich. Przykładową rozmowę można zobaczyć poniżej:
IT HAS 'WHAT IS LOVE' AND RICKROLL BUILT IN
THIS IS IT
WE DID IT PEOPLE pic.twitter.com/jZdjlYadJm— Albacore ☁️ (@thebookisclosed) March 23, 2016
Jednak w ciągu 16 godzin od uruchomienia Microsoft wyłączył bota ze względu na rasistowskie i seksistowskie uwagi modelu AI. Firma została zmuszona do przeprosin, a wiceprezes firmy Microsoft w Microsoft Research, Peter Lee, twierdził, że niechciane wyniki były spowodowane „skoordynowanym atakiem grupy osób, które wykorzystały lukę” w chatbocie. Z perspektywy czasu nie jest to wcale zaskakujące, biorąc pod uwagę, że sztuczna inteligencja została udostępniona praktycznie wszystkim w Internecie i uczyła się w drodze.
Następca o nazwie „Zo” został uruchomiony na wielu platformach społecznościowych pod koniec 2016 roku, ale ostatecznie spotkał go ten sam los, co Tay w 2019 roku, po tyradzie kontrowersyjnych uwag religijnych.
Pomimo tych niepowodzeń Microsoft odniósł pewne sukcesy również w tej dziedzinie. Ma inny starszy projekt chatbota AI o nazwie „Xiaoice”, który jest bardziej ukierunkowany na rynki azjatyckie, takie jak Japonia i Chiny. Chociaż Microsoft później wydzielił Xiaoice do oddzielnej firmy, chatbot również miał swój udział w kontrowersjach. Bot w przeszłości krytykował chiński rząd, co doprowadziło do tymczasowego wyłączenia go z sieci. A biorąc pod uwagę rynek docelowy i komercyjne przypadki użycia , jest znacznie bardziej restrykcyjny i próbuje unikać rozmów związanych z potencjalnie drażliwymi tematami, podobnie jak nowy Bing.
Oczywiste jest, że chociaż Microsoft robi znaczne postępy w zakresie tego, co chatboty AI mogą dla Ciebie zrobić, wciąż boryka się z poważnymi wyzwaniami związanymi z generowaniem nieodpowiednich odpowiedzi, dokładnością i stronniczością. Niedawne twarde ograniczenia nałożone na chatbota Bing wskazują, że płynne rozmowy z AI mogą być jeszcze odległe i być może lepiej jest dostosować chatbota do konkretnych przypadków użycia, zamiast dawać im swobodę w decydowaniu o tym, co mogą zeskrobać, w czas rzeczywisty.
Być może jest to również powód, dla którego ChatGPT OpenAI jest bardziej skuteczny pod tym względem. Został przeszkolony na stosunkowo bardziej wyselekcjonowanych danych i nie zbiera informacji z Internetu w czasie rzeczywistym. W rzeczywistości jego dane szkoleniowe mają okres graniczny 2021 .
Następnie pojawia się problem nieścisłości w wyświetlanych rzekomych faktach. Podczas gdy demo Bard firmy Google stało się pod tym względem niesławne, czat Bing firmy Microsoft stoi przed tymi samymi wyzwaniami. Jeśli nie możesz ufać pochodzeniu odpowiedzi sztucznej inteligencji, czy nie lepiej jest przeprowadzić tradycyjne wyszukiwanie w przeglądarce internetowej? Nie oznacza to, że chatboty AI są całkowicie bezużyteczne w ich obecnym stanie (właściwie dość często korzystam z ChatGPT), to bardziej podkreślam, że być może chatboty należy wyselekcjonować, aby zaspokajały na razie wyspecjalizowane przypadki użycia, a nie dowolny kierunek Microsoft obecnie wchodzi.
Oczywiście może nadejść czas, kiedy będziemy pracować razem z chatbotami AI, tak jak w powieściach i filmach science fiction, ale stało się jasne, że technologia nie jest jeszcze gotowa na najlepszy czas. Nawet prezes Alphabet, firmy macierzystej Google, John Hennessy, uważa, że chatboty podobne do ChatGPT są bardzo dalekie od przydatności w formie, w jakiej domaga się ich hype train. Prawdopodobnie któregoś dnia dotrzemy do celu, ale to nie jest dzisiaj.
Dodaj komentarz