SafeGroup

Pełna wersja: AVLab - test "potrójny" dla aplikacji sygnaturowych
Aktualnie przeglądasz uproszczoną wersję forum. Kliknij tutaj, by zobaczyć wersję z pełnym formatowaniem.
Test był anonsowany u nas, ale nie w osobnym wątku i przez to chyba nie miał odzewu...a szkoda, bo jest chyba dość oryginalny w metodologii...tu nie jestem fachowcem, więc "chyba"...był dyskutowany na forach zagranicznych, a poza tym wskazuje na dwie ważne wg mnie rzeczy
- pokazuje, że na różne technologie/funkcje można kłaść nacisk w rozwijaniu programu i potem jego detekcji szkodników
- jak popatrzyć na sumaryczne wyniki, to nie ma jakiegoś specjalnie odstającego od większości softu w osiąganych wynikach, mimo czasem sporych różnic w testach cząstkowych...no może WD w jednym teście nie za bardzo się popisał Smile
Aha...oryginalnie test ma tytuł "Najlepsze antywirusy 2018 na podstawie trzech testów bezpieczeństwa", ale celowo nie użyłem go, bo trudno wszystkie aplikacje zakwalifikować jako AV(AM), ale na pewno wszystkie korzystają w mniejszym lub większym stopniu z sygnatur. Zwróciłem uwagę na ten jeden szczegół, który potem umożliwia wskazaną wyżej interpretację, a dotyczy metodologii
Cytat:
  • Wyniki blokowania poszczególnych próbek wirusów zostały podzielone na trzy etapy:
  • Wczesny Poziom (Early Level): Wirus został zablokowany w przeglądarce lub po pobraniu w systemie i zapisaniu w lokalizacji c:\download lub przy próbie kopiowania z c:\download do c:\destination.

  • Średni Poziom (Middle Level): Wirus został przeniesiony do kwarantanny po skopiowaniu do c:\destination lub podczas próby uruchomienia.

  • Niski Poziom (Low Level): Wirus został zablokowany po uruchomieniu i nie zainfekował systemu.
- w przypadku blokowania we wczesnym kontakcie decydujące, jak mi się wydaje, są listy stron szkodliwych i wewnętrzne filtry chroniące przeglądarkę...tu najlepszym przykładem jest Eset i Sophos, który w pozostałych kategoriach ma zera, a cały wynik (bardzo dobry zresztą) robi detekcja na tym pierwszym poziomie, a absolutne zerowe wyniki mają w tym zakresie WD, Panda i Comodo CAV
- poziom drugi to bardziej sygnatury dla samych szkodników, ale widać tu chyba również automatyczne działanie proaktywne (blokery/monitory) i tu najlepszy wynik zrobiły Panda, WD i VoodooShield
- trzeci poziom bazuje chyba głównie na monitorowaniu akcji szkodnika i blokowaniu w momencie podejrzanej akcji...najlepiej (wszystkie punkty w puli) dla Comodo CAV, a wysoko Emsi, SecureAP, wyraźnie Avast i WD.
To z pewnością pewne uproszczenia, ale wg mnie wyraźnie wskazują, na co producenci kładą nacisk, a poza tym pozwala może lepiej dopasować produkt do własnych potrzeb i umiejętności, czy wręcz aktywności na komputerze.

Całość artykułu ze szczegółowymi informacjami i wnioskami autora

[Aby zobaczyć linki, zarejestruj się tutaj]

Dyskusja testu na Wildersach

[Aby zobaczyć linki, zarejestruj się tutaj]

Chciałbym od siebie dodać, że np. Comodo Cloud Antivirus i Windows Defender nie bez powodu nic nie zablokowały w przeglądarce, ponieważ nie dysponują taką ochroną. Dobierając produkt do ochrony dla siebie warto o tym pamiętać, jakie warstwy zabezpieczeń posiada dane rozwiązanie.

Jest szansa na zbiorcze zestawienie dla wszystkich trzech typów zagrożeń, których użyliście?
Jakie zestawienie, bo nie załapałem Smile Chodzi o wynik posortowany według konkretnej próbki malware i dla każdej wyszczególniony wiersz z każdym AV?
Chodzi mi o zestawienie wyników każdej aplikacji w każdej kolumnie/poziomie, ale sumarycznie dla wszystkich trzech testów - czyli każdy poziom jako suma wyników z trzech testów (ransomy+koparki+bashware). Chyba niczego nie pokręciłem Smile
A, o to chodzi Smile Nie, nie będzie takiego podsumowania, ponieważ nie takie były założenia testu. Kiedy już zaczniemy testować na większą skalę (w tym roku), to wtedy będą takie porównania w oparciu o N-set próbek malware z honeypotów każdego miesiąca.
No trudno...poczekam więc na zapowiadane nowości Smile