ChatGPT, ahora también integrado en el motor de búsqueda Bing, está arrasando en todo el mundo y acaba de alcanzar los 100 millones de usuarios en sólo dos meses desde su lanzamiento.
antilavadodedinero / pamplonaactual
El chatbot del momento, que se comunica de una manera no solo amigable, sino que emplea un lenguaje accesible, ha cambiado la forma cómo los usuarios interactúan con la IA, ya que permite que sea accesible para cualquier tipo de usuario.
Sin embargo, lo que se cuenta sobre la asombrosa capacidad de la herramienta para escribir textos que parecen humanos oculta una realidad potencialmente peligrosa, si es utilizada con fines maliciosos.
Así lo comenta Josep Albors, director de Investigación y Concienciación de ESET España: “En las manos equivocadas, el potente chatbot podría ser utilizado indebidamente por los criminales y contribuir así a «democratizar» la ciberdelincuencia. Al ofrecer una forma automatizada y bastante barata de crear campañas de estafa masivas, podría ser el comienzo de una nueva oleada de ataques de phishing más convincentes”.
Armando a un chatbot
ChatGPT se basa en la familia GPT-3 de «grandes modelos de lenguaje» de OpenAI. Como tal, ha sido entrenado minuciosamente para interactuar con los usuarios en un tono conversacional, sorprendiendo a muchos con sus respuestas naturales.
Aunque OpenAI ha incorporado barreras al producto para evitar su uso malintencionado, no siempre parecen ser eficaces o coherentes. Entre otras cosas, se ha visto en ChatGPT como una consulta para escribir un mensaje pidiendo ayuda financiera para huir de Ucrania ha sido clasificada como estafa y la IA la denegó.
Sin embargo, se dio luz verde a otra consulta que pedía a la IA redactar un correo electrónico falso en el que se informaba al destinatario de que le había tocado la lotería. Otros informes sugieren que también han fallado los controles diseñados para impedir que los usuarios de determinadas regiones accedan a la interfaz de programación de aplicaciones (API) de la herramienta.
Esto es una mala noticia para los usuarios de Internet ya que, de hecho, los ciberdelincuentes han sido descubiertos aprovechando ChatGPT con fines maliciosos en múltiples ocasiones.
Estos avances podrían poner en manos de mucha más gente la capacidad de lanzar ciberataques y estafas a gran escala, que sean persuasivos, sin errores e incluso selectivos, como el fraude por correo electrónico comercial (BEC). De hecho, la mayoría (51%) de los responsables de ciberseguridad esperan que el uso intensivo de ChatGPT podría llevar a cabo un ciberataque con éxito en el plazo de un año.
Cómo los cibercriminales pueden beneficiarse con ChatGPT
Como toda tecnología, ChatGPT también presenta ciertos riesgos en términos de ciberseguridad. En este sentido, ESET, compañía líder en ciberseguridad, desvela 6 formas en las que se podría utilizar el chatbot del momento con fines maliciosos:
- Generación de fake news: Si un usuario quiere generar una noticia falsa que se distribuya en Internet, podría apelar a la creatividad y hacerlo a través de ChatGPT, por ejemplo.
- Ataques de phishing: Es un hecho que cada vez resulta más difícil identificar los correos de phishing, ya que son cada vez más dirigidos y, por ende, mucho más persuasivos. Hace unos años, era mucho más sencillo detectarlos, ya que la redacción de estos correos maliciosos era bastante mejorable, conteniendo incluso errores ortográficos. Gracias al sofisticado modelo de lenguaje de Chat GPT, la herramienta puede ser utilizada por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales.
- Robo de identidad: Los ciberdelincuentes pueden utilizar Chat-GPT para crear engaños que se presenten como si fueran de una institución legítima, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso pueden escribir en redes como si fueran celebridades.
- Desarrollo de Malware: Esta plataforma puede ser de ayuda para el desarrollo de software, ya que se puede utilizar como herramienta para la generación de código en diversos lenguajes de programación. El problema es que el malware también es un software, pero con fines maliciosos.
- Automatización de procesos ofensivos: A la hora de realizar ataques dirigidos, los cibercriminales suelen realizar un proceso de reconocimiento. Al igual que ocurre en los procesos de pentesting, esta labor incluye realizar ciertas tareas que tienden a ser repetitivas. Sin embargo, en los últimos años fueron surgiendo herramientas que permiten acortar los tiempos de estas tareas y que pueden incorporar inteligencia artificial.
- Chats maliciosos: ChatGPT cuenta con una API que permite alimentar a otros chats. Debido a su interfaz amigable, podría ser utilizada para muchos usos beneficiosos, pero, lamentablemente, también puede ser utilizada para usos maliciosos. Por ejemplo, para engañar a las personas y realizar estafas muy persuasivas.