SafeGroup

Pełna wersja: Testy AV-Comparatives
Aktualnie przeglądasz uproszczoną wersję forum. Kliknij tutaj, by zobaczyć wersję z pełnym formatowaniem.
Stron: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43
facecik napisał(a):Znowu nie ma Symantec-a....hmm , no i ta lokata Weebrot-a ...

edit: popraw Zord datę testu , bo to nie kwiecień tylko maj Wink


Symantec zrezygnował z tych testów. Bo są głupie Lol

McAlex

facecik napisał(a):AVG jakoś słabo jak na nasze ostatnie zachwyty tym softem prawda ?

Prawda.
Ale czy Avira aby na pewno zapewnia ochronę lepsza od Avasta i Avg?
A czy Kaspersky mający mnostwo funkcji ochronnych ma wykrywalnośc równą Esetowi?

Ostatnio był test inny publikowany to Avg miał 6,0 za ochronę i to był nieliczny wynik.
Co test to inaczej Grin
Grin Nie powiedziałbym że słabo, raczej średnio. Ale faktycznie odczucia nasze a rezultaty lekko się rozmijają. Przyznaję że z mojego niewielkiego doświadczenia IP z AVG wydaje się być lepsze od deepguarda. Natomiast z wykrywalnością raczej za f-secure (niestety najmocniejszy na rynku silnik BD daje o sobie tutaj znać).
Inna sprawa że przez lata byłem zwolennikiem avasta jeśli chodzi o programy z darmowych A, a po Waszych sugestiach i ostatnich problemach Avastem, z trójki progamów na "A" to właśnie tenwybił się u mnie na pierwsze miejsce.
Eset może i wysoko, ale jak czegoś nie złapie sygnaturami, to przepuści, a w avg ten moduł IP jest świetny i daje temu programowi olbrzymiego kopa..Inna sprawa że w tym teście tez powinno dać się to odczuć a tego nie widać Grin
Dla mnie w tej chwili numerem jeden jest najnowszy F-Secure, piekielnie leciutki ,ze świetną detekcją i bardzo dobrą proaktywną ochroną Deep Guard.
facecik napisał(a):AVG jakoś słabo jak na nasze ostatnie zachwyty tym softem prawda ?
No właśnie.
Testy (zwłaszcza sponsorowane) testom nierówne, czasami zaskakuje wręcz różnica w rzekomych "obiektywnych" wynikach a subiektywnych, własnych odczuciach wynikających z użytkowania/testowania.
Co do F-Secure w pełni się zgadzam, AVG niedoceniony, Eset zostawiam bez komentarza

andrzej76

Tu są nie sponsorowane i niezależne i AVG trzyma się dobrze.

[Aby zobaczyć linki, zarejestruj się tutaj]


Ogólnie nie ma numeru jeden - każdy błyszczy czym innym, nie znajdziesz takiego produktu w którym jest wszystko dopracowane na 100% , bo to nie możliwe , każdy posiada + i - a że użytkownicy mają teraz wygórowane upodobania to już inna kwestia. Zawsze coś nie "przypasi" i won z komputera program.
Z 8 lat temu nie było takiego ogromnego wyboru programów av i pakietów is i nikt tak nie wybrzydzał jak teraz a i maszyny były o wiele słabsze. Teraz wszystko poszło do przodu a użytkownicy dalej te swoje jęki i lamenty wylewają że programy są takie to a takie. Nie używać av i mieć spokój.

A co do testu - większość na wyrównanej pozycji. Nie widzę tu "mistrza ceremoni" jak i "praktykanta".
Wszystko zależy także od configu programu i "bani" używającego.
Ja proponuję przestać patrzeć tylko na słupki i zerknąć również na oś pionową - tylko dwa/trzy(niepotrzebne skreślić) programy mają wynik poniżej 95% . Różnica pomiędzy pozostałymi AV jest rzędu 1-4%, a to jest, praktycznie rzecz biorąc, różnica żadna.
Niby żadna, te 2-3 % róznicy, ale gdy te % są wynikiem na np.100k malware ,to jednak jest to 3k malware przepuszczonych.
Zacytuję Wam b. ciekawy komenarz, który uświadomił mi na jak niewielką skalę jest pzeprowadzany ten test dynamiczny
Cytat: Many people describe the "Whole Product Dynamic Test" as being the real veritable test. Let me just state some of my thoughts about it. We are talking about 464 malicious URLs being tested which have been culled among known websites distributing malware.

My first question would be, what are the odds of landing on one of such infected URL? In 4 years I''ve only run once into one of these infected website, and one should consider the built in security of say Chrome and IE9 which is quite effective.

In the last 3 weeks in my work environment, Avira and MBAM (mostly Avira though) caught more than 30 real malware from around 120 USB flashdrives, my computer was without a connection during these operations, can you imagine what would have happened using an AV that relies heavily on cloud scanning?

Back to the results of the "real test". Let''s take 2 examples Avira (my choice) and BitDefender which has had excellent results lately.

Avira caught 97.8 % of 464 malware items, that is 453 out of 464
BitDefender caught 99.1 % of 464, that is 459 out of 464
We are talking about a difference of 6 pieces of malwarein one month looking specifically for malware. BitDefender caught 6 pieces of malware more than Avira.

Let''s take a look at the last "On demand Detection test" March 2012.
Avira caught 99.4% of 300,000 malware items, that is 298,200 out of 300,000
BitDefender caught 98.6% of 300,000, that is 295,800 out 300,000

Avira caught 2400 pieces of malware more than BitDefende r. Readers should draw their conclusions about these tests.

I''d like to point out that I''m comparing results of two companies as an example to comment on the methodology of tests. It is not intended as A versus B, as a matter of fact most companies had better results than Avira.

McAlex

Większośc testów to loteria. Sam miałem do czynienia ostatnio z plikiem od znajomej na pendrive, którego tylko Avg, Kaspersky (oba heurystyką) , McAfee i Nod oraz jakiś Jiangmin(?) (definicjami) wywalały./według virustotal oczywiście/.
Nigdy nie wiadomo co stanie się po uruchomieniu pliku.
Dodatkowo w tym komentaru jest tez coś o braku dostepu do sieci. W takich sytuacjach większośc programów jest slepa, skoro swoje bazy definicji lub nawet heurystykę przenoszą juz do chmury.

[Aby zobaczyć linki, zarejestruj się tutaj]


Pierwsza trójka:
Webroot
Avast
ESET
Symantec nigdzie się nie testuje ostatnimi czasy.AVG w środku wyników, aczkolwiek różnica między nim a pierwszym weebrotem nie jest jakaś przepastna a wręcz minimalna .
Takie testy to mogą sobie wsadzić w... nie powiem co. To jest tak: można wymyślić sto różnych "konkurencji" typu rozpakowywanie potrójnie spakowanego pliku pdf; skanowanie pendrive wyjętego z kieszeni albo odinstalowywanie zajebistej gry. Tylko, co z tego wynika? Odrzucając skrajne przypadki różnice są minimalne lub nieistotne w codziennym uzytkowaniu. A my i tak wiemy przecież, że nieporównywalnie szybciej i lżej działa F-Secure niż Bitdefender a G-Data może zabić trzy komputery, które pracy McAffe nawet nie zauważą.Ten test to jedno wielkie oszukaństwo.

McAlex

Panda IS i Kaspersky tak wysokoNone
Nie żebym się czepiał, ale McAfee czy Bullguarddo odczuwalnych przy pracy na plikach etc. nie należą, a Misiek z pewnością tak.

andrzej76

Testowali na i7 920 , 4GB ram , Windows 7 HP 64 bit - to ja się nie dziwię że takie wynik i każdy soft praktycznie nie odczuwalny zbytnio. Wink
No właśnie, testowali na i7 , które także posiadam, a różnice pomiędzy każdym programem AV da się zauważyć , a tu jakby nie było praktycznie różnic.
facecik napisał(a):....AVG w środku wyników, aczkolwiek różnica między nim a pierwszym weebrotem nie jest jakaś przepastna a wręcz minimalna .

Może to być spowodowane tym, że testowano Webroot Complete i mógł to być program z włączonym modułem kopii zapasowych i synchronizacji. W innych testach różnice pomiędzy Webrootem a kolejnym z programów są nawet dziesięciokrotne.

[Aby zobaczyć linki, zarejestruj się tutaj]

Może i tak ASG , nie miałem nigdy Weebrota na swoim systemie, to się nie wypowiem.(dawno temu używałem tylko SpySweeper bo to było coś na tamte czasy)
Od jakiegoś czasu przeglądam forum i postanowiłem dołączyć do dyskusji Smile
Ten test akurat wg mnie ma bardzo dobrą metodologię. Plik jest ściągany z linka i uruchamiany. Wszystkie moduły antywirusa mogą pokazać co są warte.
Liczba plików w teście jest wystarczająco duża żeby wysnuć jakieś wnioski (zwłaszcza, że w skali roku to jest kilka tysięcy plików), i dostatecznie mała, żeby być pewnym, że wszystkie pliki w teście to faktycznie malware.
W testach masowych nikt nie ma pojęcia ile w zestawie plików to jakieś śmieci, ile jest czystych, a ile jest naprawdę złych. Liczy się cyferka na końcu (często podobnie jest imo w waszych testach paczek)

Jedynym problemem jest dobór sampli użytych w teście. Powinno być jasne dlaczego konkretne linki zostały użyte. Niestety każdy test można zmanipulować Sad
Real World Protection-Test Overview March-June 2012- przegląd testów ochrony w czasie rzeczywistym za okres od marca do czerwca Smile

W podsumowaniu:

Ocenę ADVANCED +i *** otrzymały: BITDEFENDER, G-DATA, KASPERSKY, QIHOO i F-SECURE

Link:

[Aby zobaczyć linki, zarejestruj się tutaj]

Stron: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43