¿Es la inteligencia artificial la mayor bendición o el mayor desafío de nuestra época? Considerando la implacable proliferación de requisitos legales en casi todas las jurisdicciones del mundo, la pregunta es más relevante que nunca para oficiales de cumplimiento.
Antilavadodedinero / FCPA
Los departamentos de cumplimiento de hoy tienen que lidiar con una red increíblemente compleja de leyes y regulaciones, detectar señales de alerta entre miles de terceros y realizar una selección de listas de sanciones de todos los deudores y acreedores. Los bancos y las instituciones financieras enfrentan requisitos adicionales de AML y KYC, incluida la preselección de los clientes antes de abrir cuentas o realizar transacciones sustanciales.
Por ejemplo, solo en la Unión Europea, en 2019 se adoptaron 521 actos legislativos y 1446 actos no legislativos (incluidos los actos delegados y de ejecución).
El seguimiento de los cambios legales, el mantenimiento de datos maestros de miles de terceros y la detección y prevención de transacciones financieras no autorizadas se ha vuelto casi imposible sin procesos automatizados y aplicaciones de inteligencia artificial.Después de que la nueva regulación GDPR entró en vigencia en mayo de 2018, ciertas aplicaciones de inteligencia artificial pudieron encontrar cláusulas de privacidad de datos relevantes en los contratos para ser modificadas, reduciendo significativamente la carga de trabajo manual.
Además, la IA también podría desempeñar un papel importante en el campo de la evaluación de riesgos de cumplimiento o el análisis predictivo, donde decenas de miles de entradas de datos deben analizarse y traducirse en elementos de acción para los gerentes de cumplimiento e información de gestión valiosa para los líderes empresariales. Las empresas también están aplicando cada vez más software de procesamiento del lenguaje natural (NLP) para identificar casos legales relevantes relacionados con el cumplimiento o leyes adoptadas por las autoridades.
Sin embargo, como toda nueva tecnología, la IA también constituye nuevos riesgos. Ofrecer soluciones más precisas y precisas a través de aplicaciones de IA no conduce necesariamente al mejor resultado. Por ejemplo, en 2018 Amazon supuestamente tuvo que dejar de aplicar un motor de reclutamiento porque la herramienta «aprendió» a ser discriminatoria contra las mujeres.
Para seleccionar a los solicitantes más adecuados, la herramienta de contratación de AI observó un patrón entre los candidatos en los últimos diez años y descubrió que los hombres habían tenido más éxito debido al predominio de los solicitantes masculinos. El caso finalmente condujo al concepto de responsabilidad algorítmica, que provocó la introducción en el Congreso de los Estados Unidos de la Ley de Responsabilidad Algorítmica de 2019. El proyecto de ley, aún pendiente en el Congreso, obligaría a las grandes empresas a realizar una evaluación de impacto para sus sistemas de decisión automatizados de alto riesgo.
Para proteger los derechos de las personas en la era de la IA, la OCDE ha intentado establecer directrices globales. Los Principios de la OCDE sobre Inteligencia Artificial, respaldados por la Comisión Europea, el Consejo de Europa y la Cumbre de Líderes del G20 en Japón, fueron adoptados por 36 países miembros junto con Argentina, Brasil, Colombia, Costa Rica, Perú y Rumania en 2019.
Siguiendo estos principios, por primera vez,
Los sistemas de inteligencia artificial deben diseñarse de manera que respeten el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir las salvaguardias adecuadas, por ejemplo, permitir la intervención humana cuando sea necesario, para garantizar una sociedad justa y equitativa. Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para garantizar que las personas puedan desafiar los resultados. Los sistemas de IA deben funcionar de manera sólida, segura y segura durante toda su vida, y los riesgos potenciales deben evaluarse y gestionarse continuamente. Las organizaciones y las personas que desarrollan, implementan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios anteriores.
Como resultado, la Comisión Europea y la OCDE ya han lanzado sus plataformas en línea ( AI Watch y OECD AI Policy Observatory ) para monitorear las políticas de inteligencia artificial de 60 países.
Iniciativas como el proyecto de ley pendiente de EE. UU. Para la responsabilidad algorítmica y los principios de la OCDE sobre inteligencia artificial ya implementados son una clara señal de que los legisladores han comenzado a ingresar al nuevo campo de regular la inteligencia artificial y darle forma legal.
¿Qué tipo de futuro les espera a los oficiales de cumplimiento en este nuevo mundo de IA? ¿Deberíamos preocuparnos de que las máquinas de autoaprendizaje estén amenazando nuestras carreras? De ningún modo. Los nuevos paradigmas necesitarán más que nunca el juicio humano. Para tener un impacto en este futuro, tenemos que completar nuestros conjuntos de habilidades tradicionales ampliando nuestro conocimiento en el campo de la informática, el análisis de datos, la evaluación de riesgos, la gestión del flujo de trabajo y las pruebas de software, entre otros, para aprovechar los beneficios de AI y, al mismo tiempo, mitiga los posibles riesgos y errores de la máquina.
Necesitamos las habilidades que nos permitan identificar áreas de cumplimiento donde un algoritmo de autoaprendizaje puede complementar a los humanos. A modo de ejemplo, siempre se necesitará un investigador interno para descubrir posibles fraudes o acoso dentro de una empresa porque la confianza necesaria para una entrevista de investigación exitosa solo se puede construir entre seres humanos. Por lo tanto, la mayor prioridad para los profesionales del cumplimiento en esta nueva era es aprender a cooperar y coexistir con la IA de acuerdo con nuestros valores humanos.
Al aprender a beneficiarnos de las ventajas de la IA, seremos recordados como aquellos que han ayudado a dar forma a un futuro de cumplimiento digital avanzado.