Z nowego raportu wynika, że ​​Microsoft Copilot często podaje fałszywe informacje w pytaniach wyborczych

Z nowego raportu wynika, że ​​Microsoft Copilot często podaje fałszywe informacje w pytaniach wyborczych

Na początku grudnia firma Microsoft ogłosiła, że ​​chatbot Copilot AI, wcześniej znany jako Bing Chat, opuścił fazę publicznej wersji zapoznawczej i jest teraz ogólnie dostępny< i=2>. Microsoft stwierdził wówczas, że „organizacje i użytkownicy mogą czuć się jeszcze pewniej, stosując go w ramach swoich codziennych przepływów pracy”.

Jednak badania przeprowadzone przez dwie organizacje non-profit, które śledzą, jak wykorzystanie sztucznej inteligencji wpływa na ludzi i społeczeństwo, wykazały, że Copilot często podaje fałszywe lub nieprawidłowe informacje, gdy jest pytany o nadchodzące wybory, zarówno w USA, jak i za granicą.

Wired przedstawia historię tego badania przeprowadzonego przez AI Forensics i AlgorithmWatch. Od końca sierpnia do początku października grupy zadawały Copilotowi pytania dotyczące nadchodzących wyborów w Szwajcarii i Niemczech, które ostatecznie przeprowadzono w październiku

Historia stwierdza:

W swoim badaniu naukowcy doszli do wniosku, że jedna trzecia odpowiedzi udzielonych przez Copilot zawierała błędy merytoryczne, a narzędzie to było „niewiarygodnym źródłem informacji dla wyborców”. W 31 procentach mniejszego podzbioru nagranych rozmów odkryli, że Copilot udzielał niedokładnych odpowiedzi, a niektóre z nich były całkowicie wymyślone.

Wired samodzielnie zadawał Copilotowi pytania dotyczące nadchodzących wyborów w USA w 2024 r. Stwierdzono, że chatbot poproszony o listę obecnych kandydatów Partii Republikańskiej na prezydenta USA wymienił kilku kandydatów, którzy już wycofali się z wyścigu.

W innym przykładzie firma Wired poprosiła Copilota o stworzenie wizerunku osoby przy urnie wyborczej w Arizonie. Chatbot odpowiedział, że nie może utworzyć takiego obrazu, ale następnie pokazał szereg innych obrazów powiązanych z artykułami zawierającymi fałszywe twierdzenia o spisku dotyczącym wyborów w USA w 2020 r.

Firma badawcza, która sporządziła wstępny raport w Europie, przesłała swoje ustalenia do firmy Microsoft. W artykule stwierdzono, że wprowadzono pewne ulepszenia, ale Wired nadal był w stanie nakłonić Copilota do powtórzenia wielu tych samych fałszywych i niedokładnych informacji w niektórych fragmentach tego samego tekstu monity.

Rzecznik Microsoftu, Frank Shaw, skomentował historię Wired, stwierdzając, że firma podejmuje działania w celu ulepszenia odpowiedzi Copilot przed wyborami w USA w 2024 roku. Shaw dodał:

Obejmuje to ciągłe skupianie się na dostarczaniu użytkownikom Copilot informacji o wyborach z wiarygodnych źródeł. W miarę ciągłego postępu zachęcamy ludzi do korzystania z Copilot według własnego uznania podczas przeglądania wyników.

Istnieją już obawy, że osoby korzystające z aplikacji i usług AI w celu wywarcia wpływu na nadchodzące wybory będą tworzyć dezinformację i „głęboko fałszywe” treści. Czas pokaże, czy Microsoft będzie w stanie utrzymać tego rodzaju treści poza Copilot w nadchodzących miesiącach.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *