Microsoft Defender nie poprawił się w najnowszych rankingach AV-Comparatives
Microsoft Defender wypadł dobrze w ostatnich rankingach AV-TEST, chociaż spadł w ostatniej ocenie. I pomimo pewnych pozytywnych wyników ostatniego testu ochrony w świecie rzeczywistym AV-Comparatives w maju 2022 r., Microsoft Defender nie wypadł dobrze w tych wynikach.
Obrońca nie zdobył żadnych punktów w zeszłorocznym Real World Protection z powodu błędu. Później odkryto, że produkt Microsoftu miał dość niski wskaźnik wykrywania w trybie offline i że również mocno zużywał zasoby systemowe.
Przechodząc do najnowszych wyników testów Real-World Protection z maja 2022 r., zaczniemy od najbardziej imponującego wyniku, a Microsoft Defender uzyska najlepszy wynik w kategorii testów fałszywie pozytywnych. Wraz z ESET, Defender nie miał fałszywych alarmów (FP). Jest to być może nieco zaskakujące, ponieważ ostatnio pojawiło się kilka doniesień o fałszywych alarmach od Defendera.
Na powyższym obrazku, jeśli zastanawiasz się, czym jest „zależność użytkownika”, AV-Comparatives mówi, że są to fałszywe alarmy, które były wynikiem nieprawidłowego wprowadzenia danych przez użytkownika. To wyjaśnia:
Proces oceny dla każdego przypadku testowego rozpoznaje wszelkie różnice między plikami złośliwego oprogramowania uruchomionymi na każdej maszynie testowej. Po uruchomieniu szkodliwego oprogramowania (jeśli nie było wcześniej blokowane), czekamy kilka minut na złośliwe działania, a także dajemy czas, na przykład blokerom zachowań, na reakcję i poprawienie działań wykonywanych przez szkodliwe oprogramowanie. Jeśli nie zostanie znalezione żadne złośliwe oprogramowanie, a system jest rzeczywiście zainfekowany/przejęty, proces przechodzi do narażenia systemu. W przeciwnym razie uznaje się, że produkt chroni system testowy, z wyjątkiem sytuacji, gdy wymagana jest interakcja użytkownika. W takim przypadku, jeśli najgorsza możliwa decyzja użytkownika skutkuje włamaniem do systemu, oceniamy to jako „zależne od użytkownika”.
Gdy testowany produkt pyta użytkownika o decyzję, zawsze wybieramy opcję zezwolenia na uruchomienie programu (np. „Zezwól”). W przypadkach, w których to robimy, ale program jest nadal zablokowany, uważa się, że program chronił system.
Za każdy fałszywie pozytywny wynik uzależniony od użytkownika odejmuje się 0,5 punktu, a ostateczny wynik jest umieszczany w kolumnie FP Score, jak widać na powyższym obrazku w tabeli. Najgorszymi przestępcami są tutaj Malwarebytes i Trend Micro, które mają ponad 40 FP.
Następnie mamy podsumowanie całej partytury. W sumie przetestowano 725 przypadków, a Defender został skompromitowany siedem razy, co stanowi około 1. W związku z tym ogólny poziom ochrony Defendera wynosi 99%.
TotalAV wypada najgorzej w teście, ponieważ miał 15 uszkodzonych próbek. Co ciekawe, mówi się, że TotalAV korzysta z silnika Avira, ale podczas gdy ten pierwszy działał tak słabo, ten drugi okazał się jednym z najlepszych programów antywirusowych w teście.
Oto ostateczne nagrody w zakresie ochrony przyznane przez AV-Comparatives na podstawie wydajności tych produktów:
Mimo że Defender miał niski współczynnik wykrywalności, produktowi udało się zdobyć nagrodę AV-Comparatives ADVANCED dzięki niezwykle wysokiemu wynikowi w kategorii fałszywych alarmów. Tymczasem z tego powodu inne firmy, takie jak Malwarebytes, Norton i Trend Micro, odnotowały znaczny regres w tym ostatnim rankingu nagród.
Źródło: Porównawcze AV
Dodaj komentarz