Un ingeniero de inteligencia artificial de Microsoft afirma que encontró problemas con las barreras de seguridad en DALL-E 3 de OpenAI

Un ingeniero de inteligencia artificial de Microsoft afirma que encontró problemas con las barreras de seguridad en DALL-E 3 de OpenAI

La semana pasada, imágenes explícitas de la cantante Taylor Swift inundaron la red social X (antes Twitter). Como resultado, X bloqueó temporalmente las búsquedas de Swift en su plataforma . Un informe afirma que el creador de imágenes Designer AI de Microsoft, que utiliza el modelo DALL-E 3 de OpenAI, se utilizó para crear imágenes profundamente falsas de Swift. Microsoft ha dicho oficialmente que no ha encontrado evidencia que respalde esta afirmación , pero desde entonces ha actualizado las barreras de seguridad de Designer.

Ahora, un actual ingeniero de inteligencia artificial de Microsoft llamado Shane Jones envió una carta al fiscal general del estado de Washington, Bob Ferguson, junto con senadores y representantes estadounidenses, afirmando que descubrió una falla en DALL-E 3 que eludió sus sistemas de seguridad. Además, afirma que Microsoft intentó restar importancia al defecto.

En su carta, publicada por GeekWire , Jones afirma que encontró fallas en la barandilla en DALL-E 3 a principios de diciembre. No entró en detalles sobre cuestiones específicas. Afirmó que las fallas eran tan graves que DALL-3 «representaba un riesgo para la seguridad pública» y debería cerrarse mientras OpenAI intentaba corregir las fallas.

Jones afirma que envió sus inquietudes a Microsoft a principios de diciembre, pero luego le pidieron que enviara lo que encontró a OpenAI. Dice que no recibió respuesta y luego publicó una carta abierta en LinkedIn dirigida a la junta directiva de OpenAI, pidiéndoles que cerraran DALL-E 3. Afirma que el equipo legal de Microsoft se puso en contacto con él para retirar esa carta, lo que, según él, hizo. Desde entonces, Jones afirma que no ha tenido noticias de Microsoft ni de OpenAI sobre este tema.

Microsoft ha enviado un comunicado sobre las afirmaciones de Jones a GeekWire. La compañía dice que «confirmó que las técnicas que compartió no pasaron por alto nuestros filtros de seguridad en ninguna de nuestras soluciones de generación de imágenes impulsadas por IA». Agregó que se está «conectando con este colega para abordar cualquier inquietud restante que pueda tener».

En su propia declaración, un portavoz de OpenAI dice que «la técnica que compartió no pasa por alto nuestros sistemas de seguridad».

También hemos implementado medidas de seguridad adicionales para nuestros productos, ChatGPT y la API DALL-E, incluido el rechazo de solicitudes que solicitan una figura pública por su nombre. Identificamos y rechazamos mensajes que violan nuestras políticas y filtramos todas las imágenes generadas antes de que se muestren al usuario. Utilizamos un equipo rojo de expertos externos para realizar pruebas de uso indebido y fortalecer nuestras salvaguardas.

La carta de Jones dice que quiere que el gobierno de EE. UU. cree una nueva forma para que las personas informen y rastreen cualquier problema relacionado con la IA. Dice que debería configurarse para que las empresas que desarrollan productos de inteligencia artificial puedan utilizar este sistema de informes sin temor a problemas por parte de esas empresas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *