Pracownicy OpenAI uratowali Sama Altmana & Jak podaje raport, jego powrót był zabezpieczony
To nie jest porada inwestycyjna. Autor nie zajmuje pozycji w żadnej z wymienionych spółek.
Gdy kurz opadnie wokół sagi dotyczącej konfliktów zarządu i kadry kierowniczej w startupie OpenAI zajmującym się sztuczną inteligencją, na światło dzienne wychodzi więcej szczegółów na temat wydarzeń za kulisami. OpenAI – firma stojąca za popularnym chatbotem ChatGPT – zaskoczyła media w listopadzie po tym, jak krótki post na blogu ogłosił obalenie jego szefa, Sama Altmana. Chociaż samo to wystarczyło, aby wygenerować mnóstwo historii, Altman, który początkowo zgodził się ustąpić, rozpoczął powrót, podczas którego negocjował powrót do firmy przy szerokim wsparciu pracowników, jak wynika ze świeżych szczegółów udostępnionych w raporcie New York Timesa. York Timesa.
Powrót Sama Altmana do OpenAI nastąpił dzięki silnemu wsparciu pracowników, które groziło upadkiem firmy
Według raportu oszałamiający powrót pana Altmana do OpenAI nastąpił po tym, jak zorganizował wsparcie dla swojej roli w firmie w swoim domu w San Francisco. Szczegóły pochodzą z wywiadów „Los Angeles Times” z dziesiątkami osób. Choć sprawy osiągnęły punkt kulminacyjny w listopadzie, kłopoty w OpenAI zaczęły narastać dwa miesiące temu we wrześniu z powodu konfliktu między panem Altmanem a byłym zarządem OpenAI w sprawie uzupełnienia brakujących miejsc.
Decyzja Altmana o utworzeniu spółki zależnej nastawionej na zysk OpenAI oraz decyzja o wyniesieniu badacza OpenAI do tej samej rangi w korporacji, co główny naukowiec firmy, Ilya Sutskever, to tylko niektóre czynniki, które w dalszym ciągu powodowały brak zaufania między interesariuszami w firmie. Chociaż OpenAI zostało założone w 2015 roku jako przeciwwaga dla DeepMind A.I., spółki zależnej Alphabet, należącej do Google. dywizji Altman objął najwyższe stanowisko w firmie cztery lata później, w 2019 r.
Cztery lata później zarząd, obawiając się, że Altman wykorzysta swoją sieć kontaktów zawodowych do cofnięcia potencjalnego usunięcia, po cichu głosował na spotkaniu internetowym, zanim go o tym poinformował. Początkową reakcją Altmana była akceptacja, ale podjął udaną próbę powrotu motywowaną przez innych. Chociaż on i zarząd początkowo zgodzili się współpracować przy wyborze nowych członków, negocjacje zakończyły się fiaskiem.
Jednak Altman, wspierany ofertą Microsoftu, był pewien, że wymusi rękę na zarządzie i ponownie zostanie dyrektorem generalnym OpenAI po tym, jak podpisany przez setki pracowników list kwestionował motywy zarządu i groził rezygnacją, jeśli ich lider nie zostanie przywrócony na stanowisko.
Świeże szczegóły dotyczące obalenia i powrotu Altmana pojawiają się wśród innych raportów sugerujących, że FTC jest obecnie zainteresowana charakterem inwestycji Microsoftu w OpenAI . Gigant technologiczny z siedzibą w Redmond w stanie Waszyngton nie posiada pakietu kontrolnego w firmie, a non-profit charakter OpenAI eliminuje obowiązki związane z przejęciami lub raportowaniem inwestycji.
Powszechnie uważa się, że oprogramowanie sztucznej inteligencji OpenAI oparte na modelu dużego języka (LLM) przoduje w globalnym rozwoju sztucznej inteligencji. przemysł. Naukowcy i przedstawiciele branży nazywają modele LLM, takie jak GPT, modelami transformatorów. Dzieje się tak dlatego, że przekształcają zestaw określonych lub nieokreślonych parametrów w dane wyjściowe, a „zdolność obliczeniowa” sztucznej inteligencji jest często równoznaczna z liczbą parametrów, na których została ona przeszkolona. Na przykład Tesla, która wykorzystuje uczenie maszynowe w swoim półautonomicznym systemie oprogramowania do jazdy o nazwie AutoPilot, ujawniła w zeszłym roku, że jej samochody są zasilane przez „sieci neuronowe z 1 miliardem parametrów, wykonując 144 biliony operacji na sekundę.”
Chociaż OpenAI nie udostępniło publicznie szczegółów na temat liczby parametrów, na których opiera się jego najnowszy produkt, GPT-4, doniesienia medialne twierdzą, że GPT-4 ma 1,8 biliona parametrów w 120 warstwach. Jeśli to prawda, liczba ta plasuje ją na szczycie globalnego rankingu AI. łańcucha pokarmowego, co czyni go potężniejszym niż ogólny model języka Google (GLaM). Według Google pełna wersja GLaM ma 1,2 biliona parametrów w 32 warstwach. Sztuczna inteligencja nie wykorzystuje wszystkich tych parametrów jednocześnie podczas tworzenia wyników lub „wnioskowań”. Zamiast tego aktywuje tylko 97 miliardów z nich na każdą prognozę.
Okulary dyfrakcyjne serca, dzięki którym światła wyglądają jak serca pic.twitter.com/v1y461ALXH
— Dziewczyna naukowa (@gunsnrosesgirl3) 9 grudnia 2023 r.
Dodaj komentarz