Ciberataques y estafas, riesgos de chats con Inteligencia Artificial

Google y Microsoft están en una carrera por conseguir que sus nuevos chats con inteligencia artificial («chatbots»), que llegarán al público próximamente, se popularicen tanto o más que sus buscadores, pero estas nuevas tecnologías llegan con nuevos riesgos para la ciberseguridad, como que se usen para crear estafas o construir programas malignos para hacer ciberataques.

Google y Microsoft temen que chatbots con IA se usen para crear estafas o construir programas malignos para hacer ciberataques.
FOTO:CORTESÍA

Estos problemas también se ven en chatbots como el popular ChatGPT, creado por OpenAI, tecnología que también potencia el buscador de Microsoft, Bing.

¿Contenido creado por humano o inteligencia artificial?

Satnam Narang, ingeniero sénior de investigación en la firma de ciberseguridad Tenable, cuenta a EFE que los estafadores pueden ser unos de los grandes beneficiados por este tipo de tecnología.

Los chatbots permiten crear textos en cualquier idioma en cuestión de segundos y con una gramática perfecta.

Según Narang, una de las maneras de identificar a estos estafadores es a través de las faltas gramaticales que cometen en los mensajes que envían a sus víctimas y que, si usan IA, podrán pasar más desapercibidos.

«ChatGPT puede ayudar (a los estafadores) a crear plantillas muy bien diseñadas para correos electrónicos o crear perfiles de citas cuando intentan estafar a los usuarios en aplicaciones de citas. Y cuando tengan una conversación (con la víctima) en tiempo real, los estafadores pueden pedirle a ChatGPT que les ayude a generar la respuesta que daría la persona por la que se intentan hacer pasar», anota Narang.

Además, el experto señala que existen otros tipos de herramientas de inteligencia artificial, como DALL·E 2 -también de OpenAI- en la que los estafadores pueden crear fotografías de personas que no existen.

La IA para diseñar programas malignos

Otra de las cualidades de ChatGPT es que puede ayudar a piratas informáticos a crear programas malignos (o malware).

«Este malware no va a ser el más sofisticado ni el mejor diseñado, pero les da una comprensión básica de cómo pueden escribir softwares maliciosos basados en lenguajes específicos. Así que les da una ventaja en su proceso, ya que hasta ahora quien quisiera desarrollar softwares maliciosos tenía que aprender a programar, pero ahora el ChatGPT puede ayudarlos a acortar ese tiempo», detalla Narang.

¿Qué es ChatGPT?

ChatGPT es un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, desarrollado por la empresa OpenAI. Es un modelo con más de 175 millones de parámetros, y entrenado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto.

Esta inteligencia artificial se la entrena a base de texto, se le realizan preguntas y le añaden información, de manera que este sistema, a base de correcciones a lo largo del tiempo, va «entrenándose» para realizar de forma automática la tarea para la que la han diseñado. Este es el método para entrenar a todas las IA, tanto a la de ChatGPT como otras del estilo de los Magic Avatars de Lensa.

En el caso de ChatGPT, esta IA entrenada para mantener conversaciones con cualquier persona. Sus algoritmos deberían ser capaces de entender lo que le estés preguntando con precisión, incluyendo adjetivos y variaciones que añadas en tus frases, y de responderte de una manera coherente.

Lo más sorprendente de ChatGPT, es la capacidad de darte unas respuestas muy acertadas y completas, incluso de varios párrafos.

Además, en estas respuestas es capaz de expresarte de manera natural y con información muy exacta, lo que hace muy complicado distinguir que el texto lo ha generado por IA.

DAN, un chatbot sin límites

Tanto los chatbots de ChatGPT de OpenAI, como Bing de Microsoft y Bard de Google, están diseñados cuidadosamente para evitar pronunciarse sobre una amplia gama de temas delicados -como racismo o seguridad- y respuestas ofensivas.

Por ejemplo, no responden a preguntas sobre Adolf Hitler, no aceptan comentar la palabra inglesa «nigger» (despectiva por «negro») ni tampoco dan instrucciones de cómo construir una bomba.

También te puede interesar: Italia alerta de un ciberataque en miles de servidores de decenas de países

No obstante, Narang explica que ya existe una versión «jailbreak» (liberada o modificada) de ChatGPT que se llama DAN, siglas de “Do Anything Now” («Haz cualquier cosa ahora») en la que no existen este tipo de barreras.

«Esto es más preocupante, porque ahora (un usuario) podría pedirle al ChatGPT (sin límites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositivo que infecta y pide un rescate para devolver el control a su dueño). Aunque aún no se sabe lo eficaz que podría llegar a ser ese ransomware», explica Narang.

Ciberataques y estafas una caja de pandora

El experto ve difícil que se puedan implantar reglas a nivel nacional o institucional para poner límites a estas nuevas tecnologías o hacer que la gente no las use.

«Una vez que abres la caja de Pandora, no puedes volver a meter nada dentro. ChatGPT ya está aquí, y no va a desaparecer. Porque fuera de este uso malicioso hay muchos casos de usos genuinos que son valiosos para empresas, organizaciones e individuos», concluye Narang.

EFE