Nowy łowca złośliwego oprogramowania dla systemu Windows został przetestowany przez AV-TEST i wypadł całkiem okropnie

Nowy łowca złośliwego oprogramowania dla systemu Windows został przetestowany przez AV-TEST i wypadł całkiem okropnie

W naszym poprzednim artykule omówiliśmy produkty chroniące przed złośliwym oprogramowaniem, które mają wpływ na wydajność, takie jak między innymi Microsoft Defender, McAfee i Norton jakie mają systemy i jak oceniają je względem siebie. Przyglądamy się w tym kontekście możliwościom ochrony, jakie zapewniają, ponieważ łagodne lub umiarkowane uderzenie w działanie systemu nie będzie usprawiedliwione, jeśli aplikacja zabezpieczająca nie będzie w stanie bronić się przed zagrożeniami.

AV-Comparatives i AV-TEST opublikowały swoje ustalenia w swoich najnowszych raportach i przeprowadzono je odpowiednio na Windows 10 i Windows 11. Pierwszy z nich opublikował dwa osobne, bardzo obszerne artykuły: test ochrony w świecie rzeczywistym i test ochrony przed złośliwym oprogramowaniem.

AV-Comparatives wyjaśnia, jak działa test ochrony w świecie rzeczywistym:

Nasz test ochrony w świecie rzeczywistym ma na celu symulowanie warunków w świecie rzeczywistym, jakich doświadczają użytkownicy na co dzień. Jeśli wyświetlane są interakcje użytkownika, wybieramy opcję „Zezwalaj” lub jej odpowiednik. Jeśli produkt mimo to chroni system, uznajemy szkodliwe oprogramowanie za zablokowane, mimo że pozwalamy na uruchomienie programu, gdy użytkownik zostanie poproszony o podjęcie decyzji. Jeśli bezpieczeństwo systemu zostanie naruszone, uznajemy to za zależne od użytkownika.

A oto, na czym polega test ochrony przed złośliwym oprogramowaniem:

Test ochrony przed złośliwym oprogramowaniem ocenia zdolność programu zabezpieczającego do ochrony systemu przed infekcją złośliwymi plikami przed, w trakcie lub po wykonaniu.

Metodologia zastosowana w przypadku każdego testowanego produktu jest następująca. Przed wykonaniem wszystkie próbki testowe są poddawane skanowaniu przy dostępie i na żądanie przez program zabezpieczający, przy czym każde z nich odbywa się zarówno w trybie offline, jak i online.

Wszelkie próbki, które nie zostały wykryte w żadnym z tych skanów, są następnie uruchamiane w systemie testowym z dostępem do Internetu/chmury, aby umożliwić m.in. funkcje wykrywania zachowań, które mają wejść w grę. Jeśli produkt nie zapobiegnie lub nie cofnie wszystkich zmian wprowadzonych przez konkretną próbkę złośliwego oprogramowania w określonym czasie, ten przypadek testowy uznaje się za nieudany. Jeśli użytkownik zostanie poproszony o podjęcie decyzji, czy pozwolić na uruchomienie próbki złośliwego oprogramowania, i w przypadku zaobserwowania najgorszych zmian w systemie decyzyjnym użytkownika, przypadek testowy zostanie oceniony jako „zależny od użytkownika”.

Test w świecie rzeczywistym składa się łącznie z 512 przypadków testowych, podczas gdy test ochrony przed złośliwym oprogramowaniem obejmuje ponad 10 000, a dokładnie 10 007. Poniższe zdjęcia przedstawiają ten ostatni.

Microsoft Defender w dalszym ciągu wypada przeciętnie w kategorii offline. Zostało to również zauważone w poprzednich ocenach, chociaż rekompensuje to z nadwyżką wskaźniki wykrywania i ochrony online. Oprócz Defendera także McAfee nie wypadł imponująco w teście wykrywania w trybie offline, a Kaspersky był ledwo lepszy.

W przypadku Defendera, który plasuje się gdzieś w środku rankingu, zanotowano pięć fałszywych alarmów. Najwięcej fałszywych alarmów zgłosiła firma F-Secure. Wśród najpopularniejszych produktów najgorsze były produkty McAfee i Norton, które wygenerowały odpowiednio 10 i 12 fałszywych alarmów.

Przechodząc do AV-TEST, większość testowanych produktów działa do siebie podobnie. Jednak jest wśród nich znaczący element odstający.

Test ochrony przed uderzeniami AV-Comparatives AV-TEST, październik 2023 r

Bkav, wietnamski produkt antywirusowy, jest całkiem nowym uczestnikiem oceny AV-TEST i jasne jest, że nie wypadł najlepiej. Sztuczna inteligencja bezpieczeństwa internetowego Bkav otrzymała 3,0 z 6,0 punktów w kategorii Ochrona i 3,5 z 6,0 w kategorii Użyteczność, co czyni ją jednym z najgorszych wyników w historii, ponieważ AV-TEST bardzo rzadko wystawia wyniki poniżej 4,5.

Jeśli się zastanawiasz, wynik Użyteczności ma na celu ocenę niedogodności i irytacji powodowanych przez produkt antywirusowy. Dlatego do tej kategorii zaliczane są takie rzeczy jak fałszywe alarmy.

Gdy spojrzymy na rozkład wyników Bkav, łatwo zrozumieć dlaczego. Bkav najwyraźniej bardzo ciężko radził sobie ze złośliwym oprogramowaniem typu zero-day, uzyskując wynik zaledwie 54,5%, co stanowi prawie połowę średniej branżowej wynoszącej 99,2%. Co gorsza, wynik w tym miesiącu jest niższy w porównaniu do września.

Tymczasem w kategorii użyteczności zmierzono 258 fałszywych alarmów w porównaniu ze średnią w branży wynoszącą zaledwie 1. Należy jednak pamiętać, że wynik ten jest znacznie lepszy niż 732 z poprzedniego miesiąca, więc twórcy wydają się być na dobrej drodze.

Źródła:TEST AV || Porównania AV (Link1, Link2)

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *