Meta está probando un nuevo chatbot… sálvese quien pueda

Meta está probando un nuevo chatbot… sálvese quien pueda

Sé que, en general, cuando hablo de Facebook y Meta, tiendo a ser bastante crítico. No le guardo mucho rencor a la red social ni a la empresa, aunque es cierto que llevan años intentando armar una imagen especialmente negativa. Sin embargo, en esta ocasión, es oportuno aclarar que la advertencia de seguridad del título no es porque se trate del proyecto de esta empresa en particular… o, bueno, en realidad no.

Y es que la compañía ha lanzado BlenderBot 3 , un chatbot universal que de momento solo está disponible desde Estados Unidos (intenté acceder a él a través de dos VPN, pero también falló), y eso es al menos en su definición, suele ofrecer como una conversación de carácter general, como las que se pueden establecer en un bar en cualquier momento, como las respuestas a las preguntas que suelen realizar los asistentes digitales.

Como todos los LLM, BlenderBot ha sido entrenado en grandes conjuntos de datos de texto para poder establecer patrones que, en retrospectiva, serán los responsables de las respuestas proporcionadas por la IA. Dichos sistemas han demostrado ser extremadamente flexibles y han encontrado amplias aplicaciones, desde generar código para programadores hasta ayudar a los autores a escribir el próximo éxito de ventas. Sin embargo, estos modelos también tienen serios problemas, como desarrollar sesgos en los conjuntos de datos y que cuando no saben la respuesta correcta a una pregunta, en lugar de decir que no saben, tienden a dar una respuesta.

Y aquí podemos decir cosas positivas de Meta, ya que el propósito de BlenderBot es probar exactamente una posible solución al problema de las respuestas inventadas. Así, la gran característica de este chatbot es que es capaz de buscar información en Internet para poder hablar sobre determinados temas. Y aún mejor, los usuarios pueden hacer clic en sus respuestas para ver de dónde obtuvo la información. En otras palabras, BlenderBot 3 puede citar sus fuentes, brindando una transparencia increíble.

Así que el punto de partida del Meta es bueno, al menos en teoría. El problema es que los chatbots como los conocemos hoy en día tienen dos problemas. En primer lugar, su aprendizaje es continuo, por lo que basta con que una gran cantidad de usuarios decidan crear un sesgo malicioso en la IA, de forma que si no cuenta con los elementos necesarios para evitarlo, acabará Contaminada y por tanto, por lo tanto. jugarlos

Y el segundo problema está relacionado con el primero, y es que este tipo de algoritmos funcionan como una caja cerrada y opaca, en el sentido de que no se sabe lo que ocurre dentro. Por lo tanto, los tomadores de decisiones dependen únicamente del monitoreo constante de la IA, no pueden «levantar el capó» para ver qué está sucediendo allí, lo que dificulta y prolonga la identificación de problemas y, en muchos casos, los hace imposibles. ser resuelto.

Entonces, este Meta chatbot parece un paso en la dirección correcta, pero después de tantos fracasos en el pasado, admito que soy bastante pesimista.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *