Po pierwsze, Opera umożliwi teraz użytkownikom lokalne uruchamianie LLM
Opera dodała niedawno nową funkcję, która umożliwia użytkownikom Opery One pobieranie i wykorzystywanie modeli wielkojęzycznych (LLM) na ich komputerach osobistych. Ta funkcja jest dostępna dla użytkowników, którzy otrzymują aktualizacje strumieniowe od deweloperów i zapewnia dostęp do ponad 150 modeli z różnych rodzin, takich jak Llama od Meta, Gemma od Google, Vicuna, Mistral AI i inne.
Według Krystiana Kolondry, wiceprezesa ds. przeglądarek i gier w Operze, stwierdził :
„Wprowadzenie w ten sposób lokalnych menedżerów LLM pozwoli Operze rozpocząć odkrywanie sposobów budowania doświadczeń i know-how w szybko rozwijającej się lokalnej przestrzeni sztucznej inteligencji”.
Opera oznaczyła te najnowsze dodatki jako część „Programu usuwania funkcji AI” i obiecuje, że dane użytkownika pozostaną przechowywane na jego urządzeniu, co umożliwi mu korzystanie z generatywnej sztucznej inteligencji bez konieczności wysyłania jakichkolwiek danych na serwer. Firma wykorzystuje platformę open source Ollama do wykonywania tych modeli bezpośrednio na komputerach użytkowników. Każda wersja modeli zajmuje 2-10 GB miejsca na urządzeniu.
Opera dokłada wszelkich starań, aby dołączyć do trendu wykorzystania technologii AI, wprowadzając te nowe funkcje. Nie jest to jednak pierwszy przypadek przeglądarki wykorzystującej sztuczną inteligencję, co widać było po premierze Opery One w zeszłym roku. Posunięcie to ugruntowało cel firmy, jakim jest zostanie wiodącą przeglądarką zorientowaną na sztuczną inteligencję, co zostało dodatkowo potwierdzone wprowadzeniem na rynek asystentki AI, Arii. Oczekuje się, że aktualizacje te, oferując odrębne i pomysłowe funkcje, pomogą Operze w zwiększeniu jej udziału w rynku. Według raportu Statcounter z grudnia 2023 r. Opera zdobyła 3,8% udziału w rynku i znalazła się wśród 5 najlepszych przeglądarek na komputery stacjonarne.
Aby doświadczyć tej nowej funkcji w Operze, po prostu zaktualizuj przeglądarkę Opera Developer do najnowszej wersji i postępuj zgodnie z poniższymi instrukcjami , aby włączyć lokalne LLM na swoim urządzeniu. Umożliwi to komputerowi użytkownika korzystanie z lokalnego LLM zamiast z asystentki AI Opery, Arii, chyba że użytkownik zainicjuje czat z Arią lub ponownie go aktywuje.
Dodaj komentarz