Google twierdzi, że wydarzyły się dwie rzeczy, które spowodowały problemy z generatorem obrazów Gemini AI w tym tygodniu
Na początku tego tygodnia ludzie zaczęli zgłaszać, że funkcja generatora obrazów w chatbocie Google Gemini (dawniej Bard) tworzyła nieodpowiednie grafiki. Mówiąc dokładniej, system przedstawiał osoby o ciemnym kolorze skóry w rolach historycznych lub fikcyjnych, które nie były odpowiednie dla tych postaci.
Po zgłoszeniu grafiki Google ogłosił, że tymczasowo wyłączy zdolność Gemini do tworzenia dzieł sztuki przedstawiających ludzi za pomocą generatora obrazów. Pod koniec piątku firma w poście na blogu wyjaśniła, co stało się z Gemini .
Nie chciała też, aby chatbot tworzył obrazy prawdziwych ludzi.
Jednocześnie Google chciał również umożliwić Gemini przedstawianie różnych grup etnicznych, jeśli ktoś poprosi chatbota o bardziej ogólne zdjęcia, np. przedstawiające osoby z drużyny piłkarskiej. Jeśli dana osoba chciała przedstawić konkretny typ osoby, np. białego lekarza lub czarnego nauczyciela, Bliźnięta również powinny być w stanie stworzyć taką grafikę.
Raghavan napisał następnie, że dwie konkretne rzeczy w poręczach tekstowych Gemini umożliwiły utworzenie nieodpowiednich obrazów z tego tygodnia:
Po pierwsze, nasze dostrojenie mające na celu zapewnienie, że Gemini pokazywało zakres osób, nie uwzględniło przypadków, które wyraźnie nie powinny pokazywać zakresu. Po drugie, z biegiem czasu model stał się znacznie bardziej ostrożny, niż zamierzaliśmy, i całkowicie odmówił odpowiadania na niektóre podpowiedzi, błędnie interpretując niektóre bardzo anonimowe podpowiedzi jako wrażliwe.
Te dwie rzeczy sprawiły, że model w niektórych przypadkach nadmiernie kompensował, a w innych był nadmiernie konserwatywny, co prowadziło do obrazów, które były zawstydzające i błędne.
Nie wiadomo, ile czasu zajmie Google naprawienie barierek, aby ponownie włączyć tworzenie dzieł sztuki z ludźmi w generatorze obrazów Gemini. Raghavan oświadczył, że chociaż nie może obiecać, że Gemini nigdy nie stworzy obraźliwych dzieł sztuki, Google „będzie nadal podejmować działania, gdy tylko zidentyfikujemy problem”.
Dodaj komentarz