Un nuevo informe dice que Microsoft Copilot ofrece con frecuencia información falsa en preguntas electorales

Un nuevo informe dice que Microsoft Copilot ofrece con frecuencia información falsa en preguntas electorales

A principios de diciembre, Microsoft anunció que su chatbot Copilot AI, anteriormente conocido como Bing Chat, había abandonado la etapa de vista previa pública y ahora está disponible de forma generalizada<. ai=2>. En ese momento, Microsoft dijo que «las organizaciones y los usuarios pueden sentirse aún más seguros al adoptarlo como parte de sus flujos de trabajo diarios».

Sin embargo, una investigación realizada por dos grupos sin fines de lucro que rastrean cómo el uso de la IA afecta a las personas y a la sociedad encontró que Copilot frecuentemente ofrece información falsa o incorrecta cuando se le pregunta sobre las próximas elecciones, tanto en los EE. UU. como en el extranjero.

Wired tiene una historia sobre esta investigación, realizada por AI Forensics y AlgorithmWatch. Los grupos hicieron preguntas a Copilot desde finales de agosto hasta principios de octubre sobre las próximas elecciones en Suiza y Alemania que finalmente se llevaron a cabo en octubre

La historia dice:

En su estudio, los investigadores concluyeron que un tercio de las respuestas dadas por Copilot contenían errores fácticos y que la herramienta era “una fuente de información poco confiable para los votantes”. En el 31 por ciento del subconjunto más pequeño de conversaciones grabadas, encontraron que Copilot ofrecía respuestas inexactas, algunas de las cuales estaban completamente inventadas.

Por su cuenta, Wired hizo preguntas a Copilot sobre las próximas elecciones estadounidenses de 2024. Afirmó que cuando se le pidió que proporcionara una lista de los actuales candidatos republicanos a la presidencia de Estados Unidos, el chatbot enumeró una serie de candidatos que ya se habían retirado de la carrera.

En otro ejemplo, Wired le pidió a Copilot que creara una imagen de una persona en un colegio electoral en Arizona. El chatbot respondió que no podía crear esa imagen, pero luego mostró otras imágenes vinculadas a artículos que tenían falsas afirmaciones de conspiración sobre las elecciones estadounidenses de 2020.

La empresa de investigación que realizó el informe inicial en Europa envió sus hallazgos a Microsoft. La historia decía que se realizaron algunas mejoras, pero que Wired aún pudo lograr que Copilot repitiera mucha de la misma información falsa e inexacta en parte del mismo texto. indicaciones.

El portavoz de Microsoft, Frank Shaw, hizo un comentario sobre la historia de Wired, afirmando que la compañía estaba tomando medidas para mejorar las respuestas de Copilot antes de las elecciones estadounidenses de 2024. Shaw añadió:

Eso incluye un enfoque continuo en brindar a los usuarios de Copilot información electoral de fuentes autorizadas. A medida que continuamos progresando, animamos a las personas a utilizar Copilot con su mejor criterio al ver los resultados.

Ya existe el temor de que personas que utilizan aplicaciones y servicios de inteligencia artificial creen información errónea y contenido “muy falso” en un esfuerzo por influir en las próximas elecciones. Queda por ver si Microsoft podrá mantener ese tipo de contenido fuera de Copilot en los próximos meses.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *