¿ChatGPT se convertirá en una amenaza para la ciberseguridad? Esto es lo que hay que tener en cuenta
¿Quién no ha usado ChatGPT en este momento? Es divertido, absolutamente fascinante si tienes algún interés en la inteligencia artificial y gratis (por ahora).
Aunque generalmente se lo describe como un chatbot, ChatGPT es mucho más que eso. Puede generar textos, explicar temas complejos, actuar como traductor, inventar chistes y escribir código. Pero también puede ser armado por actores de amenazas.
Cómo funciona ChatGPT y por qué es atractivo para los ciberdelincuentes
ChatGPT (Transformador preentrenado generativo) fue desarrollado por el laboratorio de investigación de inteligencia artificial OpenAI y lanzado en noviembre de 2022. Es un modelo de lenguaje grande que utiliza una combinación de técnicas de aprendizaje automático supervisadas y de refuerzo.
Quizás lo más importante es que los usuarios ajustan y entrenan constantemente a ChatGPT, que pueden votar a favor o en contra de sus respuestas, lo que lo hace aún más preciso y poderoso, ya que recopila datos por sí mismo.
Eso es lo que diferencia a ChatGPT de otros chatbots. Y si alguna vez lo usó, sabe que la diferencia se nota de inmediato: a diferencia de otros productos similares, puede participar activamente en una conversación y completar tareas complejas con una precisión asombrosa, al tiempo que brinda respuestas coherentes y similares a las humanas.
Si le mostraran un breve ensayo escrito por un humano y uno escrito por ChatGPT, probablemente le costará determinar cuál es cuál. Como ejemplo, aquí hay una parte del texto que ChatGPT generó cuando se le pidió que escribiera un breve ensayo sobre El guardián entre el centeno.
Esto no quiere decir que ChatGPT no tenga sus limitaciones, ciertamente las tiene. Cuanto más lo uses, más notarás que este es el caso. Tan poderoso como es, todavía puede tener problemas con la lógica elemental, cometer errores, compartir información falsa y engañosa, malinterpretar las instrucciones de una manera cómica y ser manipulado para llegar a una conclusión equivocada.
Pero el poder de ChatGPT no radica en su capacidad para conversar. Más bien, radica en su capacidad casi ilimitada para completar tareas en masa, de manera más eficiente y mucho más rápida de lo que podría hacerlo un ser humano. Con las entradas y los comandos correctos, y algunas soluciones creativas, ChatGPT se puede convertir en una herramienta de automatización inquietantemente poderosa.
Con eso en mente, no es difícil imaginar cómo un ciberdelincuente podría armar ChatGPT. Se trata de encontrar el método correcto, escalarlo y hacer que la IA complete tantas tareas como sea posible a la vez, con múltiples cuentas y en varios dispositivos si es necesario.
5 cosas que los actores de amenazas podrían hacer con ChatGPT
Ya hay algunos ejemplos reales de ChatGPT que utilizan los actores de amenazas, pero es más que probable que se utilice como arma de varias maneras diferentes, o que lo sea en algún momento en el futuro. Aquí hay cinco cosas que los piratas informáticos pueden hacer (y probablemente estén haciendo) con ChatGPT.
1. Escribir malware
Si ChatGPT puede escribir código, puede escribir malware. No hay sorpresa allí. Pero esto no es sólo una mera posibilidad teórica. En enero de 2023, la firma de seguridad cibernética Check Point Research descubrió que los ciberdelincuentes ya están usando ChatGPT para escribir malware y alardear de ello en foros clandestinos.
El actor de amenazas que descubrió Check Point Research usó el chatbot avanzado de manera bastante creativa para recrear el malware basado en Python descrito en ciertas publicaciones de investigación. Cuando los investigadores probaron el programa malicioso, el ciberdelincuente decía la verdad: su malware generado por ChatGPT hizo exactamente lo que estaba diseñado para hacer.
2. Generar correos electrónicos de phishing
A pesar de lo poderosos que se han vuelto los filtros de spam, los peligrosos correos electrónicos de phishing aún se escapan, y no hay mucho que la persona promedio pueda hacer excepto informar al remitente a su proveedor. Pero hay mucho que un actor de amenazas capaz podría hacer con una lista de correo y acceso a ChatGPT.
Con los comandos y sugerencias correctos, ChatGPT puede generar correos electrónicos de phishing convincentes, automatizando potencialmente el proceso para el actor de amenazas y permitiéndole escalar sus operaciones.
3. Crea sitios web fraudulentos
Si simplemente busca en Google el término «construir un sitio web con ChatGPT», encontrará un montón de tutoriales que explican con gran detalle cómo hacerlo. Si bien esta es una buena noticia para cualquiera que desee crear un sitio web desde cero, también lo es para los ciberdelincuentes. ¿Qué les impide usar ChatGPT para crear un montón de sitios fraudulentos o páginas de destino de phishing?
Las posibilidades son casi infinitas. Un actor de amenazas podría clonar un sitio web existente con ChatGPT y luego modificarlo, crear sitios web de comercio electrónico falsos, ejecutar un sitio con estafas de scareware, etc.
4. Crear contenido de spam
Para configurar un sitio web falso, ejecutar una página de redes sociales fraudulenta o crear un sitio de imitación, necesita contenido, mucho. Y debe parecer lo más legítimo posible para que la estafa funcione. ¿Por qué un actor de amenazas contrataría a escritores de contenido o escribiría publicaciones de blog por su cuenta, cuando solo puede dejar que ChatGPT lo haga por él?
De acuerdo, un sitio web con contenido generado por IA probablemente sería penalizado por Google con bastante rapidez y no aparecería en los resultados de búsqueda, pero hay muchas formas diferentes en las que un pirata informático podría promocionar un sitio web, enviarle tráfico y estafar a la gente. su dinero o robar su información personal.
5. Difundir desinformación y noticias falsas
La desinformación en línea se ha convertido en un problema importante en los últimos años. Las noticias falsas se propagan como la pólvora en las redes sociales, y las personas que no saben nada mejor a menudo caen en historias engañosas y, a veces, literalmente inventadas. Esto puede tener consecuencias nefastas en la vida real, y parece que nadie tiene idea de cómo detener la propagación de noticias falsas sin violar las leyes de libertad de expresión.
Herramientas como ChatGPT podrían exacerbar este problema. Los actores de amenazas que tienen acceso a un software que puede generar miles de noticias falsas y publicaciones en las redes sociales todos los días parece una receta para el desastre.
No confíe en nuestra palabra
Si no está convencido, le preguntamos a ChatGPT cómo lo usaría un ciberdelincuente. Parece estar de acuerdo con el quid de este artículo.
En las manos equivocadas, ChatGPT se vuelve peligroso
Uno solo puede imaginarse de qué será capaz la inteligencia artificial dentro de cinco o diez años. Por el momento, es mejor ignorar la exageración y el pánico, y evaluar ChatGPT racionalmente.
Como toda tecnología, ChatGPT no es inherentemente útil ni dañino. A pesar de algunas deficiencias, es, con mucho, el chatbot más capaz jamás lanzado al público.
Deja una respuesta