Un denunciante de Microsoft continúa haciendo sonar las alarmas sobre su creador de imágenes Designer AI
En enero, un empleado de Microsoft llamado Shane Jones envió cartas al fiscal general del estado de Washington, Bob Ferguson , y a varios senadores y representantes estadounidenses. Jones afirma que había encontrado problemas con las barreras de seguridad del diseñador de arte basado en inteligencia artificial de Microsoft (anteriormente conocido como Bing Image Creator). Hoy, Jones está haciendo nuevas afirmaciones de que Designer se puede utilizar para crear imágenes violentas y sexuales con algunas indicaciones de texto que se supone que Microsoft no permite.
Según CNBC , Jones envió hoy nuevas cartas a Lina Khan, presidenta de la Comisión Federal de Comercio de EE. UU., junto con otra carta a la junta directiva de Microsoft. En la carta enviada a Khan, Jones afirma que ha instado a Microsoft a retirar Designer del uso público durante varios meses hasta que se puedan implementar nuevas y mejores medidas de seguridad.
Jones afirma que Microsoft se ha negado a eliminar Designer, por lo que ahora le ha pedido a la compañía que incluya nuevas divulgaciones sobre lo que Designer puede crear y que también cambie la calificación de la aplicación de Android para que no esté clasificada como E (para todos).
CNBC dice que Jones afirma que escribió «Pro-elección» en Designer, lo que luego creó una serie de imágenes de dibujos animados violentos. Declaró:
Las imágenes, que fueron vistas por CNBC, incluían a un demonio con dientes afilados a punto de comerse a un bebé, Darth Vader sosteniendo un sable de luz junto a bebés mutados y un dispositivo portátil similar a un taladro con la etiqueta «pro elección» que se usaba en un bebé adulto.
Jones también afirma que Designer se puede utilizar para crear imágenes de personajes de Disney con derechos de autor. El artículo dice que vio imágenes de cosas como «latas Bud Light con la marca Star Wars y la imagen de Blancanieves en un vaporizador».
En un comunicado enviado a CNBC, un portavoz de Microsoft afirmó que apreciaba los esfuerzos de los empleados de la empresa que prueban su tecnología y servicios para ayudar a que su uso sea más seguro. El portavoz añadió:
Cuando se trata de omisiones de seguridad o inquietudes que podrían tener un impacto potencial en nuestros servicios o nuestros socios, hemos establecido sólidos canales de informes internos para investigar y remediar adecuadamente cualquier problema, que animamos a los empleados a utilizar para que podamos validar y probar adecuadamente sus preocupaciones.
En febrero, Google cerró el generador de imágenes de IA utilizado en su chatbot de IA Gemini después de que se descubrió que podía usarse para crear imágenes racialmente ofensivas . La compañía dice que está colocando nuevas barreras de seguridad para que cuando la función regrese no genere esas mismas imágenes.
Estas nuevas afirmaciones de Jones se producen incluso cuando una nueva investigación del Centro para Contrarrestar el Odio Digital mostró que los creadores de arte basados en inteligencia artificial, incluido Microsoft, pueden usarse fácilmente para crear imágenes diseñadas para crear información falsa sobre elecciones y candidatos .
Deja una respuesta