Bing y Google son criticados por mostrar pornografía deepfake con IA en un lugar destacado en las búsquedas

Bing y Google son criticados por mostrar pornografía deepfake con IA en un lugar destacado en las búsquedas

Los motores de búsqueda Bing, Google y DuckDuckGo están siendo criticados por colocar pornografía deepfake no consensuada con IA en la parte superior de algunos resultados de búsqueda específicos. Esto se produce después de que se publicara un artículo de NBC News, que destaca algunas preocupaciones relacionadas con la accesibilidad de la pornografía impulsada por IA.

Los vídeos deepfake explícitos se crean utilizando material pornográfico original y cambiando la cara del actor o (más a menudo) de la actriz por la de una persona real específica, por ejemplo, una celebridad. El cambio lo realiza automáticamente la inteligencia artificial; el usuario que crea las imágenes falsas sólo necesita alimentar a la IA con fotografías de la víctima.

Según las pruebas realizadas por NBC News en una muestra de 36 celebridades, utilizando la combinación de un nombre y la palabra “deepfakes”, Bing y Google en casi todos los casos mostraron videos e imágenes deepfakes no consensuales en la parte superior de los resultados de búsqueda.

Google arrojó 34 de los resultados mejor clasificados, mientras que Bing arrojó 35. Si bien NBC News mencionó que DuckDuckGo tiene problemas similares, no especificó la magnitud del problema.

NBC News también se queja de que los artículos relevantes sobre el tema de la pornografía deepfake no consensuada se muestran solo después del contenido inapropiado en la parte superior, cuando se busca el término «desnudos falsos».

Vale la pena mencionar que NBC News admitió haber desactivado primero las funciones de seguridad de Bing y Google que protegen al usuario de que se le muestre contenido explícito. Ambos navegadores tienen el nivel de protección básico activado de forma predeterminada, pero ofrecen un nivel de protección más alto que se puede activar manualmente.

Sin embargo, de hecho enlaza a sitios web con contenido inapropiado o herramientas para crear deepfakes de IA.

Google muestra imágenes explícitas en la configuración predeterminada, pero las imágenes se ven borrosas y se muestran en su totalidad sólo después de que se notifica al usuario sobre la naturaleza explícita de la imagen. El usuario debe presionar voluntariamente el botón para ver la imagen original.

Al mismo tiempo, es justo decir que la fácil accesibilidad a la pornografía impulsada por IA es una cuestión relevante y que cualquiera que busque este tipo de contenido probablemente desactivará las funciones de protección integradas. El contenido deepfake explícito y no consensuado es ilegal por naturaleza y, por lo tanto, se encuentra entre el tipo de contenido que Microsoft, Google y otros deberían abordar.

La forma más sencilla, o un primer paso, posiblemente temporal, antes de introducir medidas tecnológicas más avanzadas, podría ser suprimir de los resultados de búsqueda los sitios web conocidos por publicar este tipo de contenidos o prohibirlos por completo.

Esto podría reducir significativamente la naturaleza actualmente dañina de los resultados de búsqueda porque, como informa NBC News, más de la mitad de los resultados principales en sus pruebas eran enlaces a un sitio web popular deepfake o a un competidor.

Imagen de la barra de búsqueda de Google

Microsoft fue la única empresa que no respondió a la solicitud de comentarios de NBC News. Un portavoz de DuckDuckGo dijo que su fuente principal de enlaces web y resultados de imágenes es Bing. Además, DuckDuckGo ofrece una forma de enviar una solicitud relacionada con la privacidad, por ejemplo solicitando que se elimine contenido específico de una búsqueda.

Google ofrece una opción similar para las víctimas de deepfake, pero NBC News sostiene, citando a expertos y activistas, que esto no es suficiente. Además, puede causar más daño a las víctimas a quienes se les pide que envíen URL específicas con contenido confidencial para su revisión.

Por otro lado, Google ha implementado al menos algunas medidas tecnológicas. Afirmó para NBC News que busca automáticamente contenido duplicado para eliminar imágenes recargadas que ya habían sido marcadas.

Este es solo uno de los muchos ejemplos negativos del uso de la IA con fines no éticos o maliciosos. Los deepfakes, específicamente, también son un problema en muchas otras áreas, por ejemplo en la política. Microsoft es una de las empresas que intenta desarrollar una tecnología de detección de deepfakes para evitar el uso indebido de la tecnología antes de las elecciones.

Por otra parte, la FTC está buscando ideas útiles para detectar grabaciones de audio falsas creadas por inteligencia artificial. Hoy es la fecha límite para presentar presentaciones para su Desafío de clonación de voz con un premio principal de 25 000 dólares para el ganador general.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *