Microsoft i OpenAI twierdzą, że hakerzy wykorzystują generatywną sztuczną inteligencję do ulepszania ataków cybernetycznych

Microsoft i OpenAI twierdzą, że hakerzy wykorzystują generatywną sztuczną inteligencję do ulepszania ataków cybernetycznych

Nie jest zaskoczeniem informacja, że ​​zorganizowani cyberprzestępcy zaczynają wykorzystywać narzędzia i usługi generatywnej sztucznej inteligencji do nowych rodzajów ataków. Dzisiaj otrzymaliśmy znacznie więcej informacji o tym, jak sponsorowani przez państwo hakerzy wykorzystują duże modele językowe.

W poście na blogu Microsoft we współpracy z OpenAI ogłosił nowe badanie dotyczące sposobu, w jaki hakerzy wykorzystują LLM. Zawiera ono informacje na temat konkretnych grup, które zostały zidentyfikowane jako korzystające z generatywnych narzędzi AI.

Grupy mają siedziby w takich krajach jak Rosja, Korea Północna, Iran i Chiny. Jeden z nich nosi nazwę Forest Blizzard i jest powiązany z rosyjską jednostką GRU 26165. Microsoft twierdzi, że grupa aktywnie atakowała organizacje powiązane z trwającą inwazją na Ukrainę.

Microsoft twierdzi, że Forest Blizzard używa LLM „do zrozumienia protokołów komunikacji satelitarnej, technologii obrazowania radarowego i określonych parametrów technicznych”. Z jego badań wynika, że ​​grupa ta próbowała również zautomatyzować zadania, takie jak wybór plików i manipulowanie nimi, za pomocą LLM.

Inna grupa cyberprzestępcza, o której Microsoft twierdzi, że korzysta ze sztucznej inteligencji, została oznaczona jako Salmon Typhoon. Ta grupa z siedzibą w Chinach od dawna atakuje rządowych i amerykańskich wykonawców z branży obronnej. Według Microsoftu Salmon Typhoon wykorzystywał LLM na różne sposoby. Obejmują one wyszukiwanie błędów w kodowaniu i tłumaczenie technicznych dokumentów informatycznych.

Microsoft twierdzi, że będzie nadal współpracować z OpenAI w celu badania wykorzystania sztucznej inteligencji przez cyberprzestępców.

W ramach tego zobowiązania podjęliśmy działania mające na celu zakłócenie zasobów i kont powiązanych z podmiotami zagrażającymi, poprawę ochrony technologii OpenAI LLM i użytkowników przed atakami lub nadużyciami oraz ukształtowanie barier i mechanizmów bezpieczeństwa wokół naszych modeli.

Firma dodała, że ​​będzie korzystać z własnej usługi Copilot for Security, aby zwalczać cyberzagrożenia oparte na LLM.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *