Microsoft, Google, OpenAI, Meta, Amazon, X y más se comprometen a luchar contra los deepfakes electorales de IA

Microsoft, Google, OpenAI, Meta, Amazon, X y más se comprometen a luchar contra los deepfakes electorales de IA

Cada vez se presta más atención al uso de aplicaciones y servicios de inteligencia artificial generativa para crear imágenes e información ultrafalsas. Esto ciertamente llegó a un punto crítico hace unas semanas cuando las imágenes de la cantante pop Taylor Swift creadas por IA inundaron la red social X. Algunos informes afirman que las imágenes fueron creadas por el generador de imágenes AI Designer de Microsoft .

Como 2024 también es un año de elecciones para el cargo de presidente de EE. UU., existe aún más preocupación de que las imágenes deepfake de IA puedan usarse para influir negativamente en los votos en esa elección y en otras. Hoy, un gran número de empresas de tecnología anunciaron que respetarán un nuevo acuerdo que establece que utilizarán sus recursos para combatir el uso de IA en esfuerzos electorales engañosos.

El acuerdo, que fue anunciado en la Conferencia de Seguridad de Munich, se llama Acuerdo Electoral de AI . Las empresas que están adheridas a este acuerdo, en este momento, son:

  • Adobe
  • Amazonas
  • antrópico
  • Brazo
  • oncelabs
  • Google
  • IBM
  • IA de inflexión
  • LinkedIn
  • McAfee
  • Meta
  • microsoft
  • Usar
  • AbiertoAI
  • Snap Inc.
  • Estabilidad IA
  • Tik Tok
  • Tendencia Micro
  • Truepic
  • X

El comunicado de prensa (en formato PDF) que anuncia el acuerdo afirma que las empresas mencionadas han acordado seguir estos compromisos para combatir los esfuerzos electorales ultrafalsos:

  • Desarrollar e implementar tecnología para mitigar los riesgos relacionados con el contenido electoral engañoso de IA, incluidas herramientas de código abierto cuando corresponda.
  • Evaluar los modelos dentro del alcance de este acuerdo para comprender los riesgos que pueden presentar con respecto al contenido electoral engañoso de IA.
  • Buscando detectar la distribución de este contenido en sus plataformas
  • Buscando abordar adecuadamente estos contenidos detectados en sus plataformas.
  • Fomento de la resiliencia intersectorial al contenido electoral engañoso de IA
  • Proporcionar transparencia al público sobre cómo la empresa lo aborda.
  • Continuar colaborando con un conjunto diverso de organizaciones de la sociedad civil global y académicos.
  • Apoyar los esfuerzos para fomentar la conciencia pública, la alfabetización mediática y la resiliencia de toda la sociedad.

El presidente de Microsoft, Brad Smith, se encontraba entre los ejecutivos de la empresa citados en el comunicado de prensa. Él afirmó:

A medida que la sociedad acepta los beneficios de la IA, tenemos la responsabilidad de ayudar a garantizar que estas herramientas no se conviertan en armas en las elecciones. La IA no creó el engaño electoral, pero debemos asegurarnos de que no contribuya a que el engaño florezca.

Un ejemplo de deepfakes electorales ocurrió hace unas semanas, cuando las llamadas automáticas con una voz generada por IA del presidente estadounidense Joe Biden instaron a las personas que llamaban a no votar en las primarias de New Hampshire. Más tarde se descubrió que las llamadas fueron creadas por una empresa con sede en Texas .

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *