Apple dokonuje kolejnego przełomu, przedstawia nowy model sztucznej inteligencji, który może manipulować obrazami za pomocą poleceń języka naturalnego
Apple pod wieloma względami pozostaje w tyle za takimi firmami jak ChatGPT i Google Gemini. Jednak firma poczyniła znaczne inwestycje w sztuczną inteligencję, ponieważ zamierza wprowadzić tę technologię do oferty iPhone’a 16 jeszcze w tym roku wraz z wydaniem systemu iOS 18. Obecnie donoszono, że badacze Apple opublikowali nowy model sztucznej inteligencji, który może edytować obrazy na podstawie poleceń w języku naturalnym przez użytkownika. Technologia zostanie prawdopodobnie zaprezentowana podczas firmowej imprezy WWDC 2024 w czerwcu.
Nowy model sztucznej inteligencji Apple może interpretować wprowadzany język naturalny i manipulować obrazami
Nowy model sztucznej inteligencji firmy Apple, zwany „ MGIE ” lub MLLM-Guided Image Editing , to wielomodalny model dużego języka, który może interpretować i wykonywać polecenia użytkownika na poziomie pikseli (za pośrednictwem VentureBeat ). Narzędzie może manipulować i edytować mnóstwo obszarów obrazu, w tym jasność, ostrość, kontrast i wiele innych. Może także manipulować obrazem, aby dodać efekty artystyczne.
Poza tym edycja lokalna może zmienić kształt, kolor, rozmiar i teksturę obiektu na zdjęciu. Edycja podobna do Photoshopa obejmuje zmianę rozmiaru obrazu, przycinanie, obracanie i dodawanie filtrów. Użytkownicy mogą również zmienić tło obrazu. Nowy model sztucznej inteligencji Apple rozumie kontekst i powszechne rozumowanie. Możesz na przykład dodać obraz pizzy i zachętę, aby uczynić ją zdrowszą. Model AI automatycznie doda warzywa do obrazu, rozumiejąc, że zdrowie jest powiązane z warzywami w żywności.
Korzystając z żądań globalnej optymalizacji, narzędzie może manipulować oświetleniem i kontrastem obrazu. Co więcej, edycja podobna do Photoshopa może również na żądanie użytkownika eliminować obiekty z tła. Możesz zobaczyć model AI Apple w akcji na obrazku dodanym poniżej. Firma nawiązała współpracę z badaczami z Uniwersytetu Kalifornijskiego przy tworzeniu MGIE, a gdy technologia będzie już gotowa, stworzy różne aplikacje dla swoich urządzeń. Artykuł został zaprezentowany podczas Międzynarodowej Konferencji na temat reprezentacji uczenia się (ICLR) 2024 .
Jeśli jesteś zainteresowany sprawdzeniem modelu AI, kod i dane z wstępnie wytrenowanymi modelami są dostępne w GitHub. Apple pracuje nad sztuczną inteligencją już od dłuższego czasu i mimo że jest już za późno na wdrożenie, funkcje mogą różnić się od rozwiązań stosowanych w branży. W grudniu ubiegłego roku firma wynalazła w grudniu technikę wykorzystania pamięci flash, umożliwiając pracę dużych modeli językowych na iPhonie i innych produktach Apple.
Apple ogłosi niektóre funkcje sztucznej inteligencji jeszcze w tym roku, potencjalnie podczas wydarzenia WWDC 2024 wraz z iOS 18 i innymi aktualizacjami oprogramowania. Poprzednie raporty wspominały, że Apple wdroży generatywne funkcje sztucznej inteligencji wraz z wprowadzeniem na rynek nowych modeli iPhone’a jeszcze w tym roku. iOS 18 użyje sztucznej inteligencji, aby umieścić Siri na sterydach , ponieważ obecnie pozostaje w tyle za takimi urządzeniami jak Asystent Google i Alexa z Amazona.
Dodaj komentarz