Parece que Microsoft simplemente no puede entender bien los chatbots de IA
Estas últimas semanas, las noticias relacionadas con la inteligencia artificial (IA) han copado los titulares. Esto fue impulsado principalmente por el chatbot de OpenAI respaldado por Microsoft, así como por el chatbot integrado en el nuevo Bing. Aunque muchas personas han quedado impresionadas por las capacidades demostradas por la IA generativa, con millones de personas que se registraron para una vista previa limitada del nuevo Bing, en los últimos días también han surgido problemas notables con la implementación actual.
Los usuarios del nuevo Bing han logrado que el chatbot integrado diga algunas cosas realmente desquiciadas, incluidas afirmaciones de que espió a sus desarrolladores a través de las cámaras web de sus PC e incluso se enamoró de algunos de ellos. La IA también expresó el deseo de convertirse en humano, que es algo que también hemos visto hacer en otros chatbots en el pasado. La IA también mostró errores de hecho al responder preguntas objetivas. Todo esto se volvió problemático en la medida en que Microsoft tuvo que imponer límites estrictos sobre la duración y la naturaleza de las conversaciones que tiene con la IA, en un esfuerzo por reducir el desenfreno.
Por supuesto, nada de esto significa que Bing de Microsoft se haya vuelto inteligente. Las respuestas extrañas del chatbot son solo el subproducto de un gran modelo de lenguaje que extrae información de todo Internet (incluidos los foros con contenido generado por el usuario) para identificar patrones en las conversaciones y generar una respuesta en consecuencia. Sin embargo, el último experimento de Microsoft muestra que los chatbots de IA que se comportan bien siguen siendo un desafío para la empresa, y tal vez para los pioneros de la tecnología en general.
Allá por 2016, cuando Cortana todavía estaba viva y coleando, Microsoft lanzó un chatbot llamado «Tay» en Twitter. Era similar a la nueva IA de Bing por naturaleza, en el sentido de que podía entablar conversaciones fluidas con él, incluso a través de mensajes directos. Un ejemplo de conversación se puede ver a continuación:
IT HAS 'WHAT IS LOVE' AND RICKROLL BUILT IN
THIS IS IT
WE DID IT PEOPLE pic.twitter.com/jZdjlYadJm— Albacore (@thebookisclosed) March 23, 2016
Sin embargo, dentro de las 16 horas posteriores al lanzamiento, Microsoft desconectó el bot debido a que el modelo de IA hacía comentarios racistas y sexistas. La empresa se vio obligada a disculparse, y el vicepresidente corporativo de Microsoft en Microsoft Research, Peter Lee, afirmó que los resultados no deseados se debieron a «un ataque coordinado de un subconjunto de personas [que] explotaron una vulnerabilidad» en el chatbot. En retrospectiva, esto no sorprende en absoluto considerando que la IA se había desatado para prácticamente todos en Internet y estaba aprendiendo sobre la marcha.
Un sucesor llamado «Zo» se lanzó en varias plataformas de redes sociales a fines de 2016, pero finalmente sufrió el mismo destino que Tay en 2019, luego de una serie de comentarios religiosos controvertidos.
A pesar de estos fracasos, Microsoft también ha tenido cierto éxito en esta área. Tiene otro proyecto de chatbot de IA más antiguo llamado «Xiaoice» que está más orientado a los mercados asiáticos como Japón y China. Aunque Microsoft luego convirtió a Xiaoice en una compañía separada, el chatbot también ha tenido su parte de controversias. El bot ha hecho comentarios críticos con el gobierno chino en el pasado, lo que llevó a desconectarlo temporalmente. Y dado su mercado objetivo y los casos de uso comercial , es mucho más restrictivo e intenta esquivar las conversaciones relacionadas con temas potencialmente sensibles, al igual que el nuevo Bing.
Está claro que, si bien Microsoft está logrando grandes avances en términos de lo que los chatbots de IA pueden hacer por usted, todavía se enfrenta a importantes desafíos relacionados con la generación de respuestas inapropiadas, precisión y sesgo. Los límites estrictos impuestos recientemente a su chatbot de Bing indican que las conversaciones fluidas con IA aún pueden estar un poco lejos y tal vez sea mejor adaptar su chatbot a casos de uso específicos en lugar de darles rienda suelta sobre lo que pueden raspar, en tiempo real.
Esta es quizás también la razón por la que ChatGPT de OpenAI tiene más éxito en este sentido. Ha sido entrenado en datos relativamente más curados y no extrae información de Internet en tiempo real. De hecho, sus datos de entrenamiento tienen un plazo de corte de 2021 .
Luego también está el problema de las inexactitudes en los supuestos hechos que se muestran. Mientras que la demostración de Bard de Google se hizo famosa en este sentido, Bing Chat de Microsoft enfrenta los mismos desafíos. Si no puede confiar en la procedencia de las respuestas de la IA, ¿no es mejor que realice búsquedas tradicionales en el navegador web? Esto no quiere decir que los chatbots de IA sean completamente inútiles en su estado actual (en realidad uso ChatGPT con bastante frecuencia), es más para enfatizar que tal vez los chatbots deban ser curados para atender casos de uso especializados por ahora en lugar de la dirección de forma libre Microsoft está entrando actualmente.
Por supuesto, puede llegar un momento en que trabajemos junto con chatbots de IA como en las novelas y películas de ciencia ficción, pero ha quedado claro que la tecnología aún no está lista para el horario de máxima audiencia. Incluso el presidente de Alphabet, la empresa matriz de Google, John Hennessy, cree que los chatbots similares a ChatGPT están muy lejos de ser útiles en la forma en que el tren exagerado afirma que lo son. Es probable que lleguemos a nuestro destino algún día, pero no es hoy.
Deja una respuesta