FraudGPT: Nuevo método de ciberdelincuencia impulsado por la inteligencia artificia

Las nuevas modalidades de delincuencia con herramientas impulsadas por la inteligencia artificial (IA) aumentan las preocupaciones en el mundo de la informática. De acuerdo con expertos en ciberseguridad, cada vez surgen sofisticados métodos para engañar y estafar a usuarios desde cualquier parte del mundo. 

En el complejo mundo de la Deep Web, donde la clandestinidad y el anonimato reinan, una nueva amenaza emerge: FraudGPT. Esta réplica de ChatGPT, diseñada por ciberdelincuentes para llevar a cabo fraudes y estafas, representa un paso significativo en la intersección entre la IA y la criminalidad cibernética. 

La Deep Web, una parte oculta de Internet no indexada por los motores de búsqueda convencionales, ha sido históricamente asociada con actividades ilícitas. Desde la venta de drogas y armas hasta la proliferación de datos robados, la Deep Web ha sido un terreno fuerte para la ciberdelincuencia. 

Creadores de inteligencia artificial llegaron a un acuerdo con la Casa Blanca sobre el uso de estas herramientas: ¿en qué consiste?
Empresas cada vez invierten más en seguridad informática ante la exposición y riesgo de datos sensibles. Foto: iStock.

¿Cómo funciona FraudGPT?

FraudGPT y WormGPT, dos innovadores sistemas maliciosos, están transformando la cibercriminalidad en la Deep Web. Según un análisis de Netenrich, compañía especializada en seguridad informática, estos programas permiten la creación de correos electrónicos fraudulentos y la ejecución de ataques de phishing altamente convincentes. 

Además, su capacidad para generar deepfakes y desinformación agrega una capa adicional de amenaza. Este cambio señala una evolución en la sofisticación y segmentación de los ataques cibernéticos. 

Expertos advierten sobre el potencial desarrollo de malware más avanzado, evidenciando cómo la IA generativa está dando forma a un nuevo y peligroso capítulo en la cibercriminalidad.

FraudGPT: un nuevo método de ciberdelincuencia impulsado por la inteligencia artificial
Imagen referencial. iStockphoto.

Marcelo Vázquez, hacker ético español y experto en ciberseguridad, explicó en su canal de YouTube que los datos personales robados se compran y venden a menudo en la dark web (subdivisión específica y anónima de la Deep Web). 

Esto lo hacen tras violaciones de datos donde los cibercriminales penetran en las empresas y roban información de los usuarios. Luego estos datos son vendidos para tener un beneficio económico, como datos personales, tarjetas de crédito, correo y hasta pasaportes. 

Es por eso que es tan importante proteger nuestra información personal, el uso de contraseñas fuertes y únicas, autenticación de dos factores y cuidarse de correos electrónicos sospechosos”, comentó Vázquez en uno de sus tutoriales.

Recomendaciones para prevenir delitos informáticos impulsados por la IA

-Educación y Conciencia: informar a los usuarios sobre las amenazas en línea y cómo identificar posibles intentos de fraude es crucial. La conciencia es la primera línea de defensa.

-Seguridad en la red: implementar medidas de seguridad robustas, como firewalls y antivirus actualizados, para proteger contra amenazas conocidas.

-Autenticación de dos factores (2FA): reforzar la seguridad de cuentas en línea mediante la implementación de la autenticación de dos factores dificulta el acceso no autorizado.

-Monitoreo constante: establecer sistemas de monitoreo continuo para detectar actividades sospechosas y responder rápidamente ante posibles amenazas.
-Colaboración internacional: dada la naturaleza transfronteriza de la ciberdelincuencia, la colaboración entre países es esencial para perseguir y enjuiciar a los responsables.

eldiario

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online