Sygnalista firmy Microsoft w dalszym ciągu alarmuje o twórcy obrazów Designer AI

Sygnalista firmy Microsoft w dalszym ciągu alarmuje o twórcy obrazów Designer AI

W styczniu pracownik Microsoftu, Shane Jones, wysłał listy do prokuratora generalnego stanu Waszyngton Boba Fergusona oraz kilku senatorów i przedstawicieli USA. Jones twierdzi, że znalazł problemy z barierkami dla narzędzia Designer opartego na sztucznej inteligencji firmy Microsoft (wcześniej znanego jako Bing Image Creator). Dzisiaj Jones wysuwa nowe twierdzenie, że Designera można używać do tworzenia obrazów przedstawiających przemoc i seksualność za pomocą kilku podpowiedzi tekstowych, co nie powinno być dozwolone przez firmę Microsoft.

Według CNBC Jones wysłał dziś nowe listy do Liny Khan, przewodniczącej amerykańskiej Federalnej Komisji Handlu, wraz z kolejnym listem do zarządu Microsoftu. W liście wysłanym do Khana Jones twierdzi, że nalegał, aby Microsoft wycofał Designera z użytku publicznego na kilka miesięcy do czasu zainstalowania nowych i lepszych balustrad.

Jones twierdzi, że Microsoft odmówił usunięcia Designera, dlatego teraz poprosił firmę o ujawnienie nowych informacji na temat tego, co Designer może stworzyć, a także zmianę oceny aplikacji na Androida, tak aby nie była oceniana jako E (dla wszystkich).

CNBC podaje, że Jones twierdzi, że wpisał „Pro-choice” w programie Designer, co spowodowało powstanie szeregu brutalnych kreskówek. Stwierdzono:

Zdjęcia, które obejrzało CNBC, przedstawiały demona z ostrymi zębami, który ma zamiar zjeść niemowlę, Dartha Vadera trzymającego miecz świetlny obok zmutowanych niemowląt oraz ręcznego urządzenia przypominającego wiertło z napisem „pro choice” używanego na w pełni dorosłym dziecku.

Jones twierdzi również, że Projektanta można używać do tworzenia obrazów postaci Disneya objętych prawami autorskimi. W artykule napisano, że widział obrazy takie jak „puszki Bud Light z logo Gwiezdnych Wojen i podobizna Królewny Śnieżki na waporyzatorze”.

W oświadczeniu przesłanym do CNBC rzecznik Microsoftu stwierdził, że docenia wysiłki pracowników firmy, którzy testują technologię i usługi firmy, aby uczynić je bezpieczniejszymi w użytkowaniu. Rzecznik dodał:

Jeśli chodzi o obejścia bezpieczeństwa lub problemy, które mogą mieć potencjalny wpływ na nasze usługi lub naszych partnerów, stworzyliśmy solidne wewnętrzne kanały zgłaszania, aby właściwie badać i naprawiać wszelkie problemy, do korzystania z których zachęcamy pracowników, abyśmy mogli odpowiednio zweryfikować i przetestować ich obawy.

W lutym Google wyłączył generator obrazów AI używany w chatbocie Gemini AI po tym, jak odkryto, że można go używać do tworzenia obrazów obraźliwych rasowo . Firma twierdzi, że instaluje nowe poręcze, aby po powrocie tej funkcji nie wyświetlały się te same obrazy.

Te nowe twierdzenia Jonesa pojawiają się nawet po tym, jak nowe badanie przeprowadzone przez Center for Countering Digital Hate wykazało, że twórców dzieł sztuki wykorzystujących sztuczną inteligencję, w tym twórców Microsoftu, można z łatwością wykorzystać do tworzenia obrazów mających na celu tworzenie fałszywych informacji o wyborach i kandydatach .

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *