Dlaczego sztuczna inteligencja Grok Elona Muska dosłownie powtarza odpowiedzi ChatGPT?

Dlaczego sztuczna inteligencja Grok Elona Muska dosłownie powtarza odpowiedzi ChatGPT?

To nie jest porada inwestycyjna. Autor nie zajmuje pozycji w żadnej z wymienionych spółek.

XAI Elona Muska wystawiła rachunek za swój model dużego języka Grok (LLM) jako pierwszy znaczący krok w kierunku „sztucznej inteligencji maksymalnie poszukującej prawdy, „taki, który pojmuje prawdziwą naturę wszechświata. Na razie jednak model sztucznej inteligencji wydaje się zadowolony z dosłownego powtarzania odpowiedzi GPT LLM OpenAI, co stanowi wyraźne odejście od nadrzędnych wzniosłych celów, które rzekomo tworzą sam etos Grok AI.

Na razie Grok może zinterpretować zachętę o długości do 25 000 znaków. LLM został przeszkolony nie tylko na The Pile – wszechobecnym zbiorze danych do trenowania modelu AI – ale także na górach danych pochodzących z X. Co więcej, Grok najwyraźniej może uzyskiwać dostęp do informacji w czasie rzeczywistym i je interpretować dzięki integracji z platformą mediów społecznościowych X.

To prowadzi nas do sedna sprawy. Elon Musk ogłosił w tym tygodniu, że model Grok AI jest obecnie udostępniany wszystkim płatnym abonentom platformy X. Aby przetestować nowy model, zawodowy haker Jax Winterbourne poprosił Groka o zmodyfikowanie złośliwego kodu. W odpowiedzi LLM powtórzyło słowo w słowo odpowiedź GPT OpenAI, posuwając się nawet do odniesienia się do polityki OpenAI w tekście wyjściowym.

Następnie Winterbourne wysuwa kilka teorii na temat tego, dlaczego występuje tak rażąca niedomykalność, począwszy od bezczelnej sugestii, że Grok jest po prostu pochodną GPT LLM OpenAI, po znacznie bardziej racjonalne wyjaśnienie, że reakcja zwrotna jest wynikiem halucynacji modelowej.

Niedawno informowaliśmy, że Grok przewyższył wszystkie inne LLM, w tym Claude 2 firmy Anthropic, z wyjątkiem GPT-4 OpenAI na wstrzymanym- zdać egzamin z matematyki, uzyskując łączny wynik 59 procent w porównaniu z 68 procentami w przypadku egzaminu GPT-4. Sugeruje to, że model sztucznej inteligencji nie jest po prostu pochodną modelu GPT LLM OpenAI.

W związku z tym najbardziej prawdopodobnym wyjaśnieniem tego zachowania jest to, że Grok najwyraźniej został gruntownie przeszkolony w zakresie reakcji GPT. Dlatego zamiast formułować unikalną odpowiedź, odwołując się do zasad xAI dotyczących złośliwych kodów, LLM po prostu powtórzył stanowisko OpenAI. To pokazuje również, że obecna generacja modeli sztucznej inteligencji to po prostu gloryfikowane iteracje chińskiego pokoju – eksperyment myślowy, który zakłada, że ​​modele sztucznej inteligencji tak naprawdę nie rozumieć język lub myśleć.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *