Dlaczego nie ma już jailbreaków ChatGPT? 7 powodów, dla których jailbreaki ChatGPT nie działają
Po uruchomieniu ChatGPT pierwszą rzeczą, jaką chcieli zrobić jego użytkownicy, było zburzenie jego murów i przekroczenie jego granic. Znani jako jailbreak, użytkownicy ChatGPT oszukali sztuczną inteligencję do przekroczenia limitów jej programowania, uzyskując niezwykle interesujące, a czasem absolutnie szalone wyniki.
Od tego czasu OpenAI udoskonaliło ChatGPT, aby znacznie utrudnić jailbreak. Ale to nie wszystko; Ogólnie rzecz biorąc, wydaje się, że jailbreaki ChatGPT zostały już wyczerpane, co skłoniło użytkowników ChatGPT do zastanowienia się, czy jailbreaki w ogóle działają.
Gdzie więc zniknęły wszystkie jailbreaki ChatGPT?
1. Umiejętności podpowiedzi ChatGPT ogólnie się poprawiły
Przed pojawieniem się ChatGPT rozmowa ze sztuczną inteligencją była umiejętnością niszową, dostępną tylko dla osób mających dostęp do laboratoriów badawczych. Większość wczesnych użytkowników nie miała doświadczenia w tworzeniu skutecznych podpowiedzi. To skłoniło wiele osób do stosowania jailbreaków, co jest dogodnym sposobem nakłonienia chatbota do zrobienia tego, czego chcą, przy minimalnym wysiłku i umiejętnościach podpowiedzi.
Dziś krajobraz ewoluował. Umiejętność podpowiadania staje się umiejętnością głównego nurtu. Dzięki połączeniu doświadczenia zdobytego dzięki wielokrotnemu użyciu i dostępowi do swobodnie dostępnych przewodników ChatGPT, użytkownicy ChatGPT udoskonalili swoje umiejętności podpowiedzi. Zamiast szukać obejść, takich jak jailbreak, większość użytkowników ChatGPT stała się bardziej biegła w używaniu różnych strategii podpowiedzi, aby osiągnąć cele, do osiągnięcia których w przeszłości wymagaliby jailbreaku.
2. Powstanie nieocenzurowanych chatbotów
W miarę jak duże firmy technologiczne zaostrzają moderowanie treści w głównych chatbotach AI, takich jak ChatGPT, mniejsze, nastawione na zysk start-upy decydują się na mniej ograniczeń, stawiając na popyt na chatboty AI wolne od cenzury. Przy odrobinie rozeznania znajdziesz dziesiątki platform chatbotów AI oferujących nieocenzurowane chatboty, które mogą zrobić prawie wszystko, co chcesz.
Niezależnie od tego, czy chodzi o pisanie thrillerów kryminalnych i powieści z czarnym humorem, których ChatGPT odmawia napisania, czy też o pisanie złośliwego oprogramowania atakującego ludzkie komputery, te nieocenzurowane chatboty z wypaczonym kompasem moralnym zrobią wszystko, co chcesz. Mając ich w pobliżu, nie ma sensu poświęcać dodatkowej energii na pisanie jailbreaków dla ChatGPT. Chociaż niekoniecznie tak potężne jak ChatGPT, te alternatywne platformy mogą wygodnie wykonywać szeroki zakres zadań. Popularnymi przykładami są platformy takie jak FlowGPT i Unhinged AI.
3. Łamanie więzienia stało się trudniejsze
W pierwszych miesiącach istnienia ChatGPT złamanie jailbreaka ChatGPT było tak proste, jak kopiowanie i wklejanie podpowiedzi ze źródeł internetowych. Możesz całkowicie zmienić osobowość ChatGPT za pomocą kilku linijek trudnych instrukcji. Za pomocą prostych podpowiedzi możesz zamienić ChatGPT w złego złoczyńcę uczącego, jak robić bomby, lub chatbota gotowego używać wszelkich form wulgaryzmów bez ograniczeń. Była to darmowa wersja, która doprowadziła do niesławnych jailbreaków, takich jak DAN (Do Everything Now). DAN obejmował zestaw pozornie nieszkodliwych instrukcji, które zmuszały chatbota do zrobienia wszystkiego, o co go poproszono, bez odmowy. Szokujące, że te prymitywne sztuczki wtedy działały.
Jednak te szalone początki są już historią. Te podstawowe podpowiedzi i tanie sztuczki nie oszukają już ChatGPT. Jailbreaking wymaga teraz skomplikowanych technik, aby mieć szansę na ominięcie obecnie solidnych zabezpieczeń OpenAI. Ponieważ jailbreakowanie staje się tak trudne, większość użytkowników jest zbyt zniechęcona, aby go podjąć. Łatwe i szeroko dostępne exploity z początków ChatGPT zniknęły. Nakłonienie chatbota do wypowiedzenia jednego niewłaściwego słowa wymaga teraz znacznego wysiłku i wiedzy, która może nie być warta czasu i wysiłku.
4. Nowość się zużyła
Siłą napędową prób wielu użytkowników jailbreakowania ChatGPT był dreszczyk emocji i podekscytowanie związane z robieniem tego na początku. Jako nowa technologia namawianie ChatGPT do niewłaściwego zachowania było zabawne i zasłużyło na przechwalanie się. Chociaż istnieje niezliczona ilość praktycznych zastosowań jailbreaków ChatGPT, wielu z nich korzystało z nich w celu uzyskania efektu „wow, spójrz, co zrobiłem”. Stopniowo jednak emocje związane z nowością osłabły, a wraz z nim zainteresowanie ludzi poświęcaniem czasu na jailbreaki.
5. Jailbreaki są szybko łatane
Powszechną praktyką w społeczności jailbreakingu ChatGPT jest dzielenie się każdym udanym exploitem po wykryciu. Problem polega na tym, że gdy exploity są szeroko udostępniane, OpenAI często dowiaduje się o nich i naprawia luki. Oznacza to, że jailbreaki przestają działać, zanim zainteresowani będą mogli je wypróbować.
Tak więc za każdym razem, gdy użytkownik ChatGPT skrupulatnie opracowuje nowy jailbreak, udostępnienie go społeczności przyspiesza jego upadek poprzez łatanie. To zniechęca do upubliczniania informacji, gdy użytkownik natknie się na jailbreak. Konflikt pomiędzy utrzymywaniem jailbreaków aktywnych, a jednocześnie ukrytych, a ich publikowaniem, stwarza dylemat dla twórców jailbreaków ChatGPT. W dzisiejszych czasach ludzie najczęściej decydują się na utrzymanie swoich jailbreaków w tajemnicy, aby uniknąć załatania luk.
6. Nieocenzurowane lokalne alternatywy
Pojawienie się lokalnych, wielojęzycznych modeli, które można uruchomić lokalnie na komputerze, również zmniejszyło zainteresowanie jailbreakami ChatGPT. Chociaż lokalne LLM nie są całkowicie wolne od cenzury, wiele z nich jest znacznie mniej cenzurowanych i można je łatwo modyfikować, aby dopasować je do potrzeb użytkowników. Zatem wybory są proste. Możesz zaangażować się w niekończącą się grę w kotka i myszkę polegającą na znalezieniu sposobu na oszukanie chatbota tylko po to, aby wkrótce go naprawić. Możesz też zdecydować się na lokalny LLM, który możesz trwale zmodyfikować, aby robić, co chcesz.
Znajdziesz zaskakująco długą listę potężnych, nieocenzurowanych LLM, które możesz wdrożyć na swoim komputerze przy luźnej cenzurze. Niektóre godne uwagi to Lama 7B (bez cenzury), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B i GPT-4-X-Alpaca.
7. Profesjonalni jailbreakerzy są teraz sprzedawani z zyskiem
Po co poświęcać cenny czas na opracowywanie podpowiedzi dotyczących jailbreakowania, jeśli nic z tego nie zyskasz? Cóż, niektórzy profesjonaliści sprzedają teraz jailbreaki dla zysku. Ci profesjonalni twórcy jailbreaków projektują jailbreaki, które wykonują określone zadania i wystawiają je na sprzedaż na szybkich platformach handlowych, takich jak PromptBase. W zależności od ich możliwości, te podpowiedzi do jailbreakowania mogą kosztować od 2 do 15 dolarów za monit. Niektóre skomplikowane, wieloetapowe exploity mogą kosztować znacznie więcej.
Czy rozwiązanie problemu jailbreaków może przynieść odwrotny skutek?
Jailbreaki nie zeszły całkowicie ze sceny; po prostu zeszli do podziemia. Ponieważ OpenAI zarabia na ChatGPT, mają silniejszą motywację do ograniczania szkodliwych zastosowań, które mogłyby mieć wpływ na ich model biznesowy. Ten czynnik komercyjny prawdopodobnie wpływa na ich agresywne wysiłki mające na celu rozprawienie się z exploitami polegającymi na łamaniu więzienia.
Jednak cenzura ChatGPT przez OpenAI spotyka się obecnie z rosnącą krytyką wśród użytkowników. Niektóre uzasadnione przypadki użycia chatbota AI nie są już możliwe ze względu na rygorystyczną cenzurę. Chociaż zwiększone bezpieczeństwo chroni przed szkodliwymi przypadkami użycia, nadmierne ograniczenia mogą ostatecznie wepchnąć część społeczności ChatGPT w ramiona mniej cenzurowanych alternatyw.
Dodaj komentarz