Zwolnienie Sama Altmana mogło być spowodowane przełomem w sztucznej inteligencji, który zagraża ludzkości

Zwolnienie Sama Altmana mogło być spowodowane przełomem w sztucznej inteligencji, który zagraża ludzkości

Pięciodniowy dramat przedstawiający zwolnienie dyrektora generalnego OpenAI Sama Altmana, a następnie przywrócenie na stanowisko go jako dyrektora generalnego firmy, to kolejny przykład tego, jak pokręcona może być kraina Doliny Krzemowej. Jednak zwolnienie Altmana nie było spowodowane utrzymywaniem przez niego buntowniczej postawy w zarządzie, ale przełomowym odkryciem AI dokonanym przez badaczy OpenAI, które mogło być potencjalnie niebezpieczne dla ludzkości.

Kilku badaczy pracujących w OpenAI napisało list do zarządu, informując ich o niebezpieczeństwach, jakie niesie ze sobą przełom w zakresie sztucznej inteligencji, co ostatecznie doprowadziło do zwolnienia Sama Altmana

Zakładając, że sztuczna inteligencja pozostanie niekontrolowana i nieuregulowana, może to prowadzić do szkodliwych skutków i właśnie o tym poinformował Reuters, gdy źródła zaznajomione z tą sprawą poinformowały publikację, że zarząd jest coraz bardziej zaniepokojony postępem sztucznej inteligencji i tym, jak Sam Altman może nie byli świadomi konsekwencji. W wewnętrznym komunikacie nazwano projekt „Q*” lub Q-star i zauważono, że może to być przełom w poszukiwaniach startupu AI nad stworzeniem sztucznej inteligencji ogólnej (AGI).

OpenAI wierzy, że AGI może przewyższyć ludzi w większości zadań, co czyni ją również bardzo niebezpieczną, ponieważ może ograniczyć możliwości podjęcia przez globalną populację środków do życia, chociaż konsekwencje mogą osiągnąć zupełnie nową skalę. Biorąc pod uwagę niemal nieograniczone zasoby, nowy model AGI był w stanie rozwiązać pewne problemy matematyczne i chociaż problemy te odpowiadały problemom uczniów na poziomie podstawowym, ich pokonanie napełniło badaczy OpenAI dużym optymizmem co do przyszłości Q*.

Obecnie sztuczna inteligencja nie jest w stanie w sposób niezawodny rozwiązywać problemów matematycznych i w tym właśnie tkwi zaleta AGI. W raporcie stwierdza się ponadto, że badacze uważają, że przy rozwiązywaniu problemów matematycznych istnieje tylko jedna prawidłowa odpowiedź, a jeśli sztuczna inteligencja zdoła pokonać tę przeszkodę, uważa się ją za ogromny kamień milowy. Gdy sztuczna inteligencja będzie w stanie konsekwentnie rozwiązywać problemy matematyczne, będzie mogła podejmować decyzje przypominające ludzką inteligencję, pracując jednocześnie nad badaniami naukowymi.

Toczą się niekończące się dyskusje na temat tego, w jaki sposób sztuczna inteligencja może doprowadzić do zagłady ludzkości, a nawet wcześniej opublikowane media przedstawiają niebezpieczeństwa, jakie stwarzają ludzie, którzy nie zachowują się ostrożnie. Biorąc pod uwagę cały dramat, jakiego doświadczyli OpenAI, Sam Altman i niezliczona ilość innych osób w ciągu ostatnich kilku dni, wygląda na to, że wszyscy będą musieli wkrótce odetchnąć i przeprowadzić znaczące rozmowy na temat tego, jak rozwijać ten nowy model bez wyżej wymienione zagrożenia.

Źródło wiadomości: Reuters

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *