Microsoft Defender no mejoró en las últimas clasificaciones de AV-Comparatives
Microsoft Defender se desempeñó bien en las clasificaciones recientes de AV-TEST, aunque cayó en la última evaluación. Y a pesar de algunos resultados positivos de la prueba de protección del mundo real más reciente de AV-Comparatives en mayo de 2022, Microsoft Defender no obtuvo buenos resultados en esos puntajes.
El defensor no pudo sumar ningún punto en el Real World Protection del año pasado debido a un error. Más tarde se descubrió que el producto de Microsoft tenía una tasa de descubrimiento fuera de línea bastante lenta y que también consumía muchos recursos del sistema.
Pasando a los últimos resultados de la prueba Real-World Protection de mayo de 2022, comenzaremos con el resultado más impresionante, con Microsoft Defender obteniendo el mejor resultado en la categoría de prueba de falso positivo. Junto con ESET, Defender no tuvo falsos positivos (FP). Esto quizás sea un poco sorprendente, ya que últimamente ha habido varios informes de falsas alarmas de Defender.
En la imagen de arriba, si se pregunta qué es la «dependencia del usuario», AV-Comparatives dice que estos son falsos positivos que fueron el resultado de una entrada incorrecta del usuario. Esto explica:
El proceso de evaluación de cada caso de prueba reconoce cualquier diferencia entre los archivos de malware que se ejecutan en cada máquina de prueba. Después de que se lanza el malware (si no ha sido bloqueado antes), esperamos unos minutos para que las acciones maliciosas, y también damos tiempo, por ejemplo, a los bloqueadores de comportamiento, para reaccionar y corregir las acciones realizadas por el malware. Si no se encuentra malware y el sistema está realmente infectado/comprometido, el proceso pasa a Sistema comprometido. De lo contrario, se considera que el producto ha protegido el sistema de prueba, excepto cuando se requiere la interacción del usuario. En este caso, si la peor decisión posible del usuario resulta en un compromiso del sistema, calificamos esto como «dependiente del usuario».
Cuando el producto bajo prueba solicita la decisión del usuario, siempre seleccionamos la opción para permitir que el programa se ejecute (por ejemplo, «Permitir»). En los casos en que hacemos esto, pero el programa sigue bloqueado, se considera que el programa ha protegido el sistema.
Por cada falso positivo dependiente del usuario, se deducen 0,5 puntos y la puntuación final se coloca en la columna Puntuación FP, como puede ver en la imagen de la tabla de arriba. Los peores infractores aquí son Malwarebytes y Trend Micro, que tienen más de 40 FP.
A continuación, tenemos un resumen de toda la partitura. Se probaron un total de 725 casos y Defender se vio comprometido siete veces, lo que representa un porcentaje de compromiso de aproximadamente 1. Por lo tanto, el nivel de protección general de Defender es del 99 %.
TotalAV tiene el peor rendimiento en la prueba, ya que tenía 15 muestras comprometidas. Curiosamente, se dice que TotalAV usa el motor Avira, pero mientras que el primero funcionó tan mal, el segundo logró ser uno de los mejores antimalware en la prueba.
Estos son los premios finales de protección otorgados por AV-Comparatives en función del rendimiento de estos productos:
Aunque Defender tuvo una baja tasa de detección, el producto logró ganar el premio AV-Comparatives ADVANCED gracias a su puntaje extremadamente alto en la categoría de falsos positivos. Mientras tanto, por este motivo, otras empresas como Malwarebytes, Norton y Trend Micro sufrieron un importante retroceso en este ranking final de premios.
Fuente: AV Comparativos
Deja una respuesta