Z nowego raportu wynika, że Microsoft Copilot często podaje fałszywe informacje w pytaniach wyborczych
Na początku grudnia firma Microsoft ogłosiła, że chatbot Copilot AI, wcześniej znany jako Bing Chat, opuścił fazę publicznej wersji zapoznawczej i jest teraz ogólnie dostępny< i=2>. Microsoft stwierdził wówczas, że „organizacje i użytkownicy mogą czuć się jeszcze pewniej, stosując go w ramach swoich codziennych przepływów pracy”.
Jednak badania przeprowadzone przez dwie organizacje non-profit, które śledzą, jak wykorzystanie sztucznej inteligencji wpływa na ludzi i społeczeństwo, wykazały, że Copilot często podaje fałszywe lub nieprawidłowe informacje, gdy jest pytany o nadchodzące wybory, zarówno w USA, jak i za granicą.
Wired przedstawia historię tego badania przeprowadzonego przez AI Forensics i AlgorithmWatch. Od końca sierpnia do początku października grupy zadawały Copilotowi pytania dotyczące nadchodzących wyborów w Szwajcarii i Niemczech, które ostatecznie przeprowadzono w październiku
Historia stwierdza:
W swoim badaniu naukowcy doszli do wniosku, że jedna trzecia odpowiedzi udzielonych przez Copilot zawierała błędy merytoryczne, a narzędzie to było „niewiarygodnym źródłem informacji dla wyborców”. W 31 procentach mniejszego podzbioru nagranych rozmów odkryli, że Copilot udzielał niedokładnych odpowiedzi, a niektóre z nich były całkowicie wymyślone.
Wired samodzielnie zadawał Copilotowi pytania dotyczące nadchodzących wyborów w USA w 2024 r. Stwierdzono, że chatbot poproszony o listę obecnych kandydatów Partii Republikańskiej na prezydenta USA wymienił kilku kandydatów, którzy już wycofali się z wyścigu.
W innym przykładzie firma Wired poprosiła Copilota o stworzenie wizerunku osoby przy urnie wyborczej w Arizonie. Chatbot odpowiedział, że nie może utworzyć takiego obrazu, ale następnie pokazał szereg innych obrazów powiązanych z artykułami zawierającymi fałszywe twierdzenia o spisku dotyczącym wyborów w USA w 2020 r.
Firma badawcza, która sporządziła wstępny raport w Europie, przesłała swoje ustalenia do firmy Microsoft. W artykule stwierdzono, że wprowadzono pewne ulepszenia, ale Wired nadal był w stanie nakłonić Copilota do powtórzenia wielu tych samych fałszywych i niedokładnych informacji w niektórych fragmentach tego samego tekstu monity.
Rzecznik Microsoftu, Frank Shaw, skomentował historię Wired, stwierdzając, że firma podejmuje działania w celu ulepszenia odpowiedzi Copilot przed wyborami w USA w 2024 roku. Shaw dodał:
Obejmuje to ciągłe skupianie się na dostarczaniu użytkownikom Copilot informacji o wyborach z wiarygodnych źródeł. W miarę ciągłego postępu zachęcamy ludzi do korzystania z Copilot według własnego uznania podczas przeglądania wyników.
Istnieją już obawy, że osoby korzystające z aplikacji i usług AI w celu wywarcia wpływu na nadchodzące wybory będą tworzyć dezinformację i „głęboko fałszywe” treści. Czas pokaże, czy Microsoft będzie w stanie utrzymać tego rodzaju treści poza Copilot w nadchodzących miesiącach.
Dodaj komentarz