Czy ChatGPT stanie się zagrożeniem dla cyberbezpieczeństwa? Oto, na co należy uważać
Kto jeszcze nie korzystał z ChatGPT? To zabawne, absolutnie fascynujące, jeśli interesujesz się sztuczną inteligencją, i bezpłatne (na razie).
Chociaż zwykle jest opisywany jako chatbot, ChatGPT to znacznie więcej. Może generować kopie, wyjaśniać złożone tematy, działać jako tłumacz, wymyślać dowcipy i pisać kod. Ale cyberprzestępcy mogą go również wykorzystać jako broń.
Jak działa ChatGPT i dlaczego jest atrakcyjny dla cyberprzestępców
ChatGPT (Generative Pre-trained Transformer) został opracowany przez laboratorium badawcze sztucznej inteligencji OpenAI i wprowadzony na rynek w listopadzie 2022 r. Jest to duży model językowy, który wykorzystuje kombinację nadzorowanych i wzmacniających technik uczenia maszynowego.
Co być może ważniejsze, ChatGPT jest stale dostrajany i szkolony przez użytkowników, którzy mogą głosować za lub przeciw jego odpowiedziom, dzięki czemu jest on jeszcze dokładniejszy i potężniejszy, ponieważ samodzielnie gromadzi dane.
To właśnie odróżnia ChatGPT od innych chatbotów. A jeśli kiedykolwiek go używałeś, wiesz, że różnica jest natychmiast zauważalna: w przeciwieństwie do innych podobnych produktów jest w stanie aktywnie uczestniczyć w rozmowie i wykonywać złożone zadania z oszałamiającą dokładnością, zapewniając jednocześnie spójne i ludzkie odpowiedzi.
Gdyby pokazano ci krótki esej napisany przez człowieka i jeden napisany przez ChatGPT, prawdopodobnie miałbyś problem z ustaleniem, który jest który. Jako przykład, oto część tekstu wygenerowanego przez ChatGPT, gdy poproszono go o napisanie krótkiego eseju o The Catcher in the Rye.
Nie oznacza to, że ChatGPT nie ma swoich ograniczeń — z całą pewnością tak. Im częściej go używasz, tym bardziej zauważysz, że tak jest. Choć jest potężna, wciąż może zmagać się z elementarną logiką, popełniać błędy, dzielić się fałszywymi i wprowadzającymi w błąd informacjami, błędnie interpretować instrukcje w komiczny sposób i zostać zmanipulowanym w celu wyciągnięcia złych wniosków.
Ale siła ChatGPT nie polega na zdolności do rozmowy. Leży raczej w jego niemal nieograniczonej zdolności do masowego wykonywania zadań, wydajniej i znacznie szybciej niż człowiek. Dzięki odpowiednim wejściom i poleceniom oraz kilku kreatywnym obejściom ChatGPT można przekształcić w niepokojąco potężne narzędzie do automatyzacji.
Mając to na uwadze, nietrudno sobie wyobrazić, w jaki sposób cyberprzestępca mógłby wykorzystać ChatGPT jako broń. Wszystko polega na znalezieniu odpowiedniej metody, skalowaniu jej i sprawieniu, by sztuczna inteligencja wykonała jak najwięcej zadań jednocześnie, z wieloma kontami i na kilku urządzeniach, jeśli to konieczne.
5 rzeczy, które cyberprzestępcy mogą zrobić dzięki ChatGPT
Istnieje już kilka rzeczywistych przykładów wykorzystania ChatGPT przez cyberprzestępców, ale jest więcej niż prawdopodobne, że zostanie ono wykorzystane jako broń na wiele różnych sposobów lub stanie się to w przyszłości. Oto pięć rzeczy, które hakerzy mogą zrobić (i prawdopodobnie robią) z ChatGPT.
1. Napisz złośliwe oprogramowanie
Jeśli ChatGPT może pisać kod, może pisać złośliwe oprogramowanie. Żadnej niespodzianki. Ale to nie jest tylko czysto teoretyczna możliwość. W styczniu 2023 r. firma Check Point Research zajmująca się cyberbezpieczeństwem odkryła, że cyberprzestępcy już używają ChatGPT do tworzenia złośliwego oprogramowania — i chwalą się tym na podziemnych forach.
Odkryty przez Check Point Research cyberprzestępca wykorzystał zaawansowanego chatbota w dość kreatywny sposób, aby odtworzyć złośliwe oprogramowanie oparte na języku Python, opisane w niektórych publikacjach badawczych. Kiedy badacze testowali szkodliwy program, cyberprzestępca mówił prawdę: jego złośliwe oprogramowanie generowane przez ChatGPT robiło dokładnie to, do czego zostało zaprojektowane.
2. Generuj e-maile phishingowe
Niezależnie od tego, jak potężne stały się filtry antyspamowe, niebezpieczne e-maile phishingowe wciąż przemykają przez szczeliny, a przeciętny człowiek niewiele może zrobić poza zgłoszeniem nadawcy swojemu dostawcy. Jednak zdolny cyberprzestępca może wiele zrobić, mając listę mailingową i dostęp do ChatGPT.
Dzięki odpowiednim poleceniom i sugestiom ChatGPT może generować przekonujące e-maile phishingowe, potencjalnie automatyzując proces dla atakującego i umożliwiając mu skalowanie operacji.
3. Twórz oszukańcze strony internetowe
Jeśli po prostu wpiszesz w Google termin „zbuduj witrynę za pomocą ChatGPT”, znajdziesz kilka samouczków wyjaśniających bardzo szczegółowo, jak to zrobić. Chociaż jest to dobra wiadomość dla każdego, kto chciałby stworzyć stronę internetową od podstaw, jest to również dobra wiadomość dla cyberprzestępców. Co powstrzymuje ich przed używaniem ChatGPT do tworzenia wielu witryn oszukańczych lub phishingowych stron docelowych?
Możliwości są prawie nieograniczone. Aktor zagrożeń może sklonować istniejącą witrynę internetową za pomocą ChatGPT, a następnie ją zmodyfikować, zbudować fałszywe witryny handlu elektronicznego, uruchomić witrynę zawierającą oszustwa typu scareware i tak dalej.
4. Twórz treści spamowe
Aby założyć fałszywą stronę internetową, prowadzić oszukańczą stronę w mediach społecznościowych lub zbudować witrynę naśladowczą, potrzebujesz treści – dużo. I musi wyglądać jak najbardziej legalnie, aby oszustwo zadziałało. Dlaczego cyberprzestępca miałby zatrudniać twórców treści lub samodzielnie pisać posty na blogu, skoro może to zrobić za nich ChatGPT?
To prawda, że witryna z treściami generowanymi przez sztuczną inteligencję prawdopodobnie zostałaby dość szybko ukarana przez Google i nie pojawiłaby się w wynikach wyszukiwania, ale istnieje wiele różnych sposobów, w jakie haker może promować witrynę, kierować do niej ruch i oszukiwać ludzi ich pieniędzy lub wykraść ich dane osobowe.
5. Rozpowszechniaj dezinformację i fałszywe wiadomości
Dezinformacja w internecie stała się w ostatnich latach poważnym problemem. Fałszywe wiadomości rozprzestrzeniają się lotem błyskawicy w mediach społecznościowych, a ludzie, którzy nie wiedzą nic lepszego, często dają się nabrać na wprowadzające w błąd — a czasem dosłownie zmyślone — historie. Może to mieć tragiczne konsekwencje w życiu codziennym i wydaje się, że nikt nie ma pojęcia, jak powstrzymać rozprzestrzenianie się fałszywych wiadomości bez naruszania praw dotyczących wolności słowa.
Narzędzia takie jak ChatGPT mogą zaostrzyć ten problem. Zagrożenia mające dostęp do oprogramowania, które jest w stanie codziennie generować tysiące fałszywych wiadomości i postów w mediach społecznościowych, wydaje się przepisem na katastrofę.
Nie wierz nam na słowo
Jeśli nie jesteś przekonany, zapytaliśmy ChatGPT, jak wykorzystałby go cyberprzestępca. Wydaje się, że zgadza się z sednem tego artykułu.
W niewłaściwych rękach ChatGPT staje się niebezpieczny
Można sobie tylko wyobrazić, do czego będzie zdolna sztuczna inteligencja za pięć, dziesięć lat. Na razie najlepiej zignorować szum i panikę i racjonalnie ocenić ChatGPT.
Jak każda technologia, ChatGPT nie jest z natury ani pomocny, ani szkodliwy. Pomimo pewnych niedociągnięć jest to zdecydowanie najbardziej wydajny chatbot, jaki kiedykolwiek udostępniono publicznie.
Dodaj komentarz