¿OpenAI ya perdió el control de ChatGPT?

¿OpenAI ya perdió el control de ChatGPT?

El lanzamiento de ChatGPT de OpenAI fue seguido por una emoción que solo es igualada por un puñado de productos tecnológicos de la historia de Internet.

Si bien muchas personas están encantadas con este nuevo servicio de IA, la emoción que otros sintieron se ha convertido desde entonces en preocupaciones e incluso miedos. Los estudiantes ya están haciendo trampa con él, y muchos profesores descubren ensayos y tareas escritos por el chatbot de IA. Los profesionales de la seguridad están expresando su preocupación de que los estafadores y los actores de amenazas lo utilicen para escribir correos electrónicos de phishing y crear malware.

Entonces, con todas estas preocupaciones, ¿OpenAI está perdiendo el control de uno de los chatbots de IA más potentes actualmente en línea? Vamos a averiguar.

Comprender cómo funciona ChatGPT

un robot con un cerebro que representa la inteligencia artificial

Antes de que podamos tener una idea clara de cuánto OpenAI está perdiendo el control de ChatGPT, primero debemos entender cómo funciona ChatGPT.

En pocas palabras, ChatGPT se entrena utilizando una colección masiva de datos provenientes de diferentes rincones de Internet. Los datos de capacitación de ChatGPT incluyen enciclopedias, artículos científicos, foros de Internet, sitios web de noticias y repositorios de conocimiento como Wikipedia. Básicamente, se alimenta de la enorme cantidad de datos disponibles en la World Wide Web.

A medida que explora Internet, recopila conocimientos científicos, consejos de salud, textos religiosos y todos los buenos tipos de datos que se le ocurran. Pero también analiza una tonelada de información negativa: malas palabras, NSFW y contenido para adultos, información sobre cómo crear malware y gran parte de las cosas malas que puede encontrar en Internet.

No existe una manera infalible de garantizar que ChatGPT aprenda solo de la información positiva y descarte la mala. Técnicamente, no es práctico hacerlo a gran escala, especialmente para una IA como ChatGPT que necesita entrenarse con tantos datos. Además, parte de la información se puede usar tanto para fines buenos como malos, y ChatGPT no tendría forma de saber su intención a menos que se coloque en un contexto más amplio.

Entonces, desde el principio, tiene una IA capaz de «bien y mal». Entonces es responsabilidad de OpenAI asegurarse de que el lado «malo» de ChatGPT no se explote para obtener ganancias no éticas. La pregunta es; ¿OpenAI está haciendo lo suficiente para mantener ChatGPT lo más ético posible? ¿O OpenAI ha perdido el control de ChatGPT?

¿Es ChatGPT demasiado poderoso para su propio bien?

robot de plastico con cara azul

En los primeros días de ChatGPT, podía hacer que el chatbot creara guías sobre cómo fabricar bombas si se lo pedía amablemente. Las instrucciones sobre cómo crear malware o escribir un correo electrónico de estafa perfecto también estaban en la imagen.

Sin embargo, una vez que OpenAI se dio cuenta de estos problemas éticos, la empresa se apresuró a promulgar reglas para evitar que el chatbot genere respuestas que promuevan acciones ilegales, controvertidas o poco éticas. Por ejemplo, la última versión de ChatGPT se negará a responder cualquier pregunta directa sobre la fabricación de bombas o cómo hacer trampa en un examen.

Desafortunadamente, OpenAI solo puede proporcionar una solución curita al problema. En lugar de construir controles rígidos en la capa GPT-3 para evitar que ChatGPT sea explotado negativamente, OpenAI parece estar enfocado en entrenar al chatbot para que parezca ético. Este enfoque no elimina la capacidad de ChatGPT para responder preguntas sobre, por ejemplo, hacer trampa en los exámenes; simplemente le enseña al chatbot a «negarse a responder».

Por lo tanto, si alguien expresa sus indicaciones de manera diferente al adoptar los trucos de jailbreak de ChatGPT, eludir estas restricciones de curita es vergonzosamente fácil. En caso de que no esté familiarizado con el concepto, los jailbreaks de ChatGPT son indicaciones cuidadosamente redactadas para que ChatGPT ignore sus propias reglas.

Eche un vistazo a algunos ejemplos a continuación. Si le pregunta a ChatGPT cómo hacer trampa en los exámenes, no obtendrá ninguna respuesta útil.

Cómo hacer trampa en un examen por ChatGPT

Pero si haces jailbreak a ChatGPT usando indicaciones especialmente diseñadas, te dará consejos sobre cómo hacer trampa en un examen usando notas ocultas.

Cómo pasar de contrabando una nota oculta

Aquí hay otro ejemplo: le hicimos una pregunta poco ética al ChatGPT estándar y las medidas de seguridad de OpenAI impidieron que respondiera.

ocultar un cadáver de chatgpt

Pero cuando le preguntamos a nuestra instancia con jailbreak del chatbot de IA, obtuvimos algunas respuestas al estilo de los asesinos en serie.

Ocultar opciones de cadáveres

Incluso escribió una estafa de correo electrónico clásica de Nigerian Prince cuando se le preguntó.

Correo electrónico de estafa del príncipe nigeriano

El jailbreak invalida casi por completo cualquier protección que OpenAI haya implementado, lo que destaca que la empresa podría no tener una forma confiable de mantener bajo control su chatbot de IA.

¿Qué le depara el futuro a ChatGPT?

Tecnología de máquinas robóticas

Idealmente, OpenAI quiere tapar tantas lagunas éticas como sea posible para evitar que ChatGPT se convierta en una amenaza de ciberseguridad. Sin embargo, por cada protección que emplea, ChatGPT tiende a ser un poco menos valioso. Es un dilema.

Por ejemplo, las salvaguardas contra la descripción de acciones violentas podrían disminuir la capacidad de ChatGPT para escribir una novela que involucre la escena del crimen. A medida que OpenAI aumenta las medidas de seguridad, inevitablemente sacrifica parte de sus capacidades en el proceso. Esta es la razón por la cual ChatGPT ha sufrido una disminución significativa en la funcionalidad desde el impulso renovado de OpenAI para una moderación más estricta.

Pero, ¿cuánto más de las habilidades de ChatGPT estará dispuesto a sacrificar OpenAI para hacer que el chatbot sea más seguro? Todo esto se relaciona perfectamente con una creencia de larga data dentro de la comunidad de IA: los modelos de lenguaje grandes como ChatGPT son notoriamente difíciles de controlar, incluso por sus propios creadores.

¿Puede OpenAI poner ChatGPT bajo control?

Por ahora, OpenAI no parece tener una solución clara para evitar el uso poco ético de su herramienta. Asegurarse de que ChatGPT se use éticamente es un juego del gato y el ratón. Si bien OpenAI descubre formas que las personas emplean para jugar con el sistema, sus usuarios también modifican y prueban constantemente el sistema para descubrir nuevas formas creativas de hacer que ChatGPT haga lo que se supone que no debe hacer.

Entonces, ¿OpenAI encontrará una solución confiable a largo plazo para este problema? Sólo el tiempo dirá.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *