Świat sztucznej inteligencji od kilku lat stara się zostawić nas z otwartymi ustami i tak naprawdę to osiągają. Od konkretnych firm z sektora, takich jak OpenAI, po duże firmy technologiczne, takie jak Google, w tym czasie widzieliśmy, jak sztuczna inteligencja nauczyła się wszystkiego, od pisania tekstu na konkretny temat, który wskazujemy, po skalowanie obrazów gier w prawdziwym życiu. skala. czas na poprawę wrażeń z gry.
Bardzo ciekawym obszarem tej ewolucji sztucznej inteligencji jest generowanie obrazów, w niektórych przypadkach zupełnie przypadkowo, w innych na podstawie wcześniej podanego przez użytkownika opisu. I w tej ostatniej grupie możemy znaleźć wyspecjalizowane rozwiązania dla określonego typu obrazów, takie jak GauGAN2 firmy NVIDIA czy popularny generator twarzy Google, a także rozwiązania ogólnego przeznaczenia.
Wśród tych ostatnich złoty medal był do tej pory spójny z systemem OpenAI DALL-E, ale zmieniło się to wraz z prezentacją Image, nowego systemu opracowanego przez Google do tworzenia obrazów z opisów tekstowych. I polega na tym, że jak widzimy na stronie prezentacji projektu , niektóre obrazy generowane przez tę sztuczną inteligencję mogą równie dobrze uchodzić za prawdziwe, z tym że przynajmniej niektóre z nich odtwarzają nie do końca realistyczne motywy.
Należy jednak pamiętać, że jak zawsze w takich przypadkach, Google wybierze najlepsze uzyskane wyniki, ale możemy założyć, że nie były to również bardzo efektywne wyniki. Ponadto nie będziemy w stanie tego przetestować, przynajmniej w krótkim okresie, ponieważ Google zdecydował, że przynajmniej na razie nie udostępni obrazu potencjalnym użytkownikom/klientom.
Są ku temu dwa powody. Po pierwsze, firma jest zaniepokojona potencjalnym złośliwym wykorzystaniem obrazu, od fałszywych wiadomości po nielegalne treści seksualne, takie jak CSAM. W tej kwestii Google działa bardzo rozsądnie, bo możemy być pewni, że takie wykorzystanie będzie miało miejsce. niemal od pierwszego momentu, kiedy ta technologia stała się dostępna dla wszystkich.
Drugim, co również ma sens, jest to, że tak jak w przypadku prawie wszystkich ogromnych zbiorów danych wykorzystywanych do napędzania procesów uczenia się sztucznej inteligencji, możemy znaleźć w nich pewne błędy, które należy poprawić. Problem polega na tym, że szczegółowa analiza tych zbiorów danych jest złożonym zadaniem, z którym bledną nawet firmy wielkości Google. Więc zamiast podejść do tego w ten sposób, podejście polega na tym, aby sama sztuczna inteligencja mogła uczyć się o tych uprzedzeniach, aby automatycznie je korygować.
Osobiście przyznam, że nie jestem pewien, czy uważam to za ekscytujące, czy onieśmielające, więc prawdopodobnie jest to jedno i drugie.
Dodaj komentarz