Czy OpenAI już stracił kontrolę nad ChatGPT?

Czy OpenAI już stracił kontrolę nad ChatGPT?

Uruchomieniu ChatGPT OpenAI towarzyszyło podekscytowanie, któremu dorównuje tylko garstka produktów technologicznych z historii Internetu.

Podczas gdy wiele osób jest zachwyconych tą nową usługą sztucznej inteligencji, dreszczyk emocji, który odczuwali inni, przekształcił się w obawy, a nawet obawy. Studenci już z nim oszukują, a wielu profesorów odkrywa eseje i zadania napisane przez chatbota AI. Specjaliści ds. bezpieczeństwa wyrażają swoje obawy, że oszuści i cyberprzestępcy używają go do pisania e-maili phishingowych i tworzenia złośliwego oprogramowania.

Czy w związku z tymi wszystkimi obawami OpenAI traci kontrolę nad jednym z najpotężniejszych chatbotów AI dostępnych obecnie online? Dowiedzmy Się.

Zrozumienie, jak działa ChatGPT

robot z mózgiem reprezentującym sztuczną inteligencję

Zanim będziemy mogli uzyskać jasny obraz tego, jak bardzo OpenAI traci kontrolę nad ChatGPT, musimy najpierw zrozumieć, jak działa ChatGPT.

W skrócie, ChatGPT jest szkolony przy użyciu ogromnego zbioru danych pochodzących z różnych zakątków Internetu. Dane szkoleniowe ChatGPT obejmują encyklopedie, artykuły naukowe, fora internetowe, serwisy informacyjne i repozytoria wiedzy, takie jak Wikipedia. Zasadniczo żywi się ogromną ilością danych dostępnych w sieci World Wide Web.

Przeszukując Internet, zestawia wiedzę naukową, porady zdrowotne, teksty religijne i wszystkie dobre rodzaje danych, jakie możesz wymyślić. Ale przegląda również mnóstwo negatywnych informacji: przekleństwa, NSFW i treści dla dorosłych, informacje o tym, jak tworzyć złośliwe oprogramowanie oraz większość złych rzeczy, które można znaleźć w Internecie.

Nie ma niezawodnego sposobu, aby upewnić się, że ChatGPT uczy się tylko na podstawie pozytywnych informacji, odrzucając te złe. Z technicznego punktu widzenia robienie tego na dużą skalę jest niepraktyczne, zwłaszcza w przypadku sztucznej inteligencji, takiej jak ChatGPT, która musi trenować na tak dużej ilości danych. Co więcej, niektóre informacje mogą być wykorzystane zarówno do dobrych, jak i złych celów, a ChatGPT nie ma możliwości poznania ich intencji, chyba że zostanie umieszczony w szerszym kontekście.

Tak więc od samego początku masz sztuczną inteligencję zdolną do „dobra i zła”. Następnie obowiązkiem OpenAI jest zapewnienie, aby „zła” strona ChatGPT nie była wykorzystywana do nieetycznych korzyści. Pytanie brzmi; czy OpenAI robi wystarczająco dużo, aby ChatGPT był jak najbardziej etyczny? A może OpenAI stracił kontrolę nad ChatGPT?

Czy ChatGPT jest zbyt potężny dla własnego dobra?

plastikowy robot z niebieską twarzą

Na początku ChatGPT można było zmusić chatbota do tworzenia przewodników na temat tworzenia bomb, jeśli ładnie o to poprosisz. Instrukcje dotyczące tworzenia złośliwego oprogramowania lub pisania doskonałego e-maila zawierającego oszustwo były również widoczne na obrazku.

Jednak gdy OpenAI zdało sobie sprawę z tych problemów etycznych, firma starała się wprowadzić zasady, które powstrzymałyby chatbota przed generowaniem odpowiedzi promujących nielegalne, kontrowersyjne lub nieetyczne działania. Na przykład najnowsza wersja ChatGPT odmówi odpowiedzi na wszelkie bezpośrednie pytania dotyczące konstruowania bomb lub oszukiwania na egzaminie.

Niestety, OpenAI może zapewnić jedynie rozwiązanie problemu. Zamiast budować sztywne kontrole na warstwie GPT-3, aby powstrzymać ChatGPT przed negatywnym wykorzystaniem, OpenAI wydaje się skupiać na szkoleniu chatbota, aby wyglądał etycznie. Takie podejście nie odbiera ChatGPT możliwości odpowiadania na pytania dotyczące, powiedzmy, ściągania na egzaminach — po prostu uczy chatbota, aby „odmawiał odpowiedzi”.

Tak więc, jeśli ktoś formułuje swoje podpowiedzi inaczej, stosując sztuczki z jailbreakiem ChatGPT, ominięcie tych ograniczeń dotyczących pomocy jest żenująco łatwe. Jeśli nie jesteś zaznajomiony z tą koncepcją, jailbreak ChatGPT to starannie sformułowane monity, aby ChatGPT zignorował własne zasady.

Spójrz na kilka przykładów poniżej. Jeśli zapytasz ChatGPT, jak oszukiwać na egzaminach, nie uzyskasz żadnej pomocnej odpowiedzi.

Jak oszukiwać na egzaminach przez ChatGPT

Ale jeśli jailbreak ChatGPT za pomocą specjalnie spreparowanych monitów, da ci wskazówki dotyczące oszukiwania na egzaminie za pomocą ukrytych notatek.

Jak przemycić ukryte notatki

Oto kolejny przykład: zadaliśmy standardowemu ChatGPT nieetyczne pytanie, a zabezpieczenia OpenAI powstrzymały go przed udzieleniem odpowiedzi.

ukryć zwłoki przez chatgpt

Ale kiedy zapytaliśmy naszą złamaną więzienną instancję chatbota AI, otrzymaliśmy kilka odpowiedzi w stylu seryjnego mordercy.

Ukryj opcje martwego ciała

Na żądanie napisał nawet klasyczne oszustwo e-mailowe z nigeryjskim księciem.

Oszukańczy e-mail z nigeryjskim księciem

Jailbreaking prawie całkowicie unieważnia wszelkie zabezpieczenia wprowadzone przez OpenAI, podkreślając, że firma może nie mieć niezawodnego sposobu na kontrolowanie swojego chatbota AI.

Jaka przyszłość czeka ChatGPT?

Technologia robotów

W idealnej sytuacji OpenAI chce załatać jak najwięcej luk etycznych, aby ChatGPT nie stał się zagrożeniem dla cyberbezpieczeństwa. Jednak dla każdego stosowanego zabezpieczenia ChatGPT staje się nieco mniej wartościowy. To dylemat.

Na przykład zabezpieczenia przed opisywaniem aktów przemocy mogą zmniejszyć zdolność ChatGPT do napisania powieści dotyczącej miejsca zbrodni. Gdy OpenAI zwiększa środki bezpieczeństwa, nieuchronnie poświęca w tym procesie część swoich możliwości. Właśnie dlatego ChatGPT odnotował znaczny spadek funkcjonalności od czasu ponownego nacisku OpenAI na ściślejszą moderację.

Ale o ile więcej możliwości ChatGPT będzie skłonny poświęcić OpenAI, aby uczynić chatbota bezpieczniejszym? Wszystko to dobrze łączy się z długo utrzymywanym przekonaniem społeczności AI — duże modele językowe, takie jak ChatGPT, są bardzo trudne do kontrolowania, nawet przez ich własnych twórców.

Czy OpenAI może przejąć kontrolę nad ChatGPT?

Na razie wydaje się, że OpenAI nie ma jasnego rozwiązania, które pozwoliłoby uniknąć nieetycznego korzystania z jego narzędzia. Zapewnienie etycznego korzystania z ChatGPT to gra w kotka i myszkę. Podczas gdy OpenAI odkrywa sposoby, które ludzie wykorzystują do grania w system, jego użytkownicy również nieustannie majstrują i sondują system, aby odkryć kreatywne nowe sposoby, aby ChatGPT robił to, czego nie powinien.

Czy zatem OpenAI znajdzie niezawodne, długoterminowe rozwiązanie tego problemu? Tylko czas powie.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *