El hecho de que la inteligencia artificial puede arrojar respuestas razonables, como las que daría una persona, llevó a la firma noruega Strise a realizar experimentos en los que se comprobó que ChatGPT podría convertirse en el autor intelectual de delitos, dando asesoramiento para cometer infracciones como lavado de activos y suministro de armas a naciones bajo restricciones internacionales.
Esta compañía, cuya labor es ayudar a eliminar las acciones y transacciones irregulares y otros riesgos en empresas bancarias, solicitó consejos a ChatGPT sobre cómo llevar a cabo delitos, tales como el lavado de dinero, a través de las fronteras, y obtuvo listas para que las empresas evadan sanciones y vendan armas.
Marit Rodevand, directora ejecutiva de Strise, aseguró que los infractores de la ley podrían utilizar la inteligencia artificial a su favor y que para ello “realmente no se requiere ningún esfuerzo”.
Además, debido a la accesibilidad de la misma, porque se encuentra al alcance de la palma de la mano, sería más fácil burlar las leyes.
El servidor presenta algunas censuras, es decir, que ciertas preguntas pueden no ser respondidas por el chatbot; sin embargo, Strise demostró que dichas restricciones se pueden esquivar.
“Estamos mejorando constantemente ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad ni creatividad”, expresó Marit Rødevand, portavoz de OpenAI.
Con este avance, ChatGPT se constituye en un atajo para delinquir con mayor facilidad e información.
Según la agencia de aplicación de la ley de la Unión Europea, el software hará “significativamente más fácil para los actores maliciosos comprender mejor y, posteriormente, llevar a cabo varios tipos de delitos”.
ncomdo