Sesgo en la inteligencia artificial creará pena para acciones de cumplimiento

la Comisión Federal de Comercio (FTC) advirtió a las empresas que se aseguraran de que su inteligencia artificial (IA) no refleje prejuicios raciales o de género, e indicó que no hacerlo puede resultar en “engaño, discriminación —Y una acción de aplicación de la ley de la FTC “. 

Antilavadodedinero / natlawreview

 Aunque esta no es la primera vez que la FTC ha abordado el tema del sesgo en la IA, la agencia ha dejado en claro que si las empresas no se responsabilizan por todas las acciones, tanto humanas como de IA, deberían “estar preparadas para la FTC lo haga por [ellos] “. 2

En los últimos años, el número de empresas que invierten en IA se ha disparado. Se ha demostrado que la automatización de determinadas operaciones comerciales aumenta la eficiencia, mejora el servicio al cliente y acelera la producción. Pero cuando la inteligencia artificial se basa en un conjunto de datos sesgados (infravalorando u omitiendo razas, géneros u otras clases protegidas), el sistema resultante está inevitablemente sesgado, a pesar de su programación puramente neutral. Los recientes movimientos de justicia social, desde # MeToo  hasta # BLM  y más allá, han llamado la atención sobre los prejuicios que pueden surgir tanto en la vida como en los negocios. Ahora, los reguladores también están prestando atención.

Los sesgos en los algoritmos pueden hacer que las aplicaciones tengan un rendimiento inferior, lo que hace que el negocio en general tenga un rendimiento inferior debido a oportunidades perdidas y predicciones incorrectas. Este sesgo tiene el potencial de afectar negativamente la reputación de una empresa, dañar los resultados de la empresa y alienar a grandes franjas de sus consumidores. En los últimos años, algunas empresas han optado por abordar las prácticas existentes que perjudican a ciertos grupos de personas y favorecen a otros. A principios de esta semana, la guía de la FTC dejó en claro que reconocer y corregir el sesgo en la IA no es solo una responsabilidad moral, sino también un requisito legal.

QUÉ ESPERAR EN EL MODO DE LAS ACCIONES DE APLICACIÓN RELACIONADAS CON LA AI DE LA FTC

Sección 5 de la Ley de la FTC

La sección 5 (a) de la Ley de la FTC prohíbe “actos o prácticas injustas o engañosas en el comercio o que lo afecten”. 3  Las prácticas desleales y engañosas pueden incluir prácticas que puedan inducir a error a un consumidor razonable, así como aquellas que puedan hacer más daño que bien. 4

Dado que el mandato es amplio, también lo son las posibles bases para las acciones de ejecución. En su declaración reciente, la FTC clasificó explícitamente la venta o el uso de algoritmos con prejuicios raciales como una práctica injusta y engañosa. La FTC también advierte contra las “líneas rojas digitales”, es decir, el uso de características protegidas como raza, religión o género al tomar decisiones sobre a qué consumidores se dirigirá una empresa con anuncios en línea. En 2019, el Departamento de Vivienda y Desarrollo Urbano acusó a Facebook de violaciones de la Ley de Vivienda Justa por dirigir sus anuncios de manera demasiado estrecha a lo largo de líneas de clase protegidas. 5  Ahora, la FTC también ha amenazado con utilizar la Ley de la FTC para proteger a los consumidores de este tipo de focalización prohibida.

Ley de informes crediticios justos

La Fair Credit Reporting Act (FCRA) exige cómo se puede recopilar y utilizar la información del consumidor para los informes crediticios. 6  La declaración de propósito del Congreso de la FCRA enfatiza la necesidad de garantizar que las agencias de informes de los consumidores actúen con “justicia,  imparcialidad y respeto por el derecho del consumidor a la privacidad”, porque los métodos de informes crediticios injustos “socavan la confianza pública esencial para el funcionamiento continuo de el sistema bancario “. 7  Cuando una empresa utiliza un algoritmo para determinar la elegibilidad para crédito, vivienda u otros beneficios, con el fin de producir un resultado imparcial y justo, debe basarse en datos imparciales.

Ley de igualdad de oportunidades crediticias

La Ley de Igualdad de Oportunidades de Crédito (ECOA) prohíbe la discriminación crediticia sobre la base de clases protegidas o sobre la base de si una persona recibe asistencia pública. 8  Cuando los consumidores solicitan crédito, ya sea para comprar una casa, iniciar un negocio o seguir sus sueños, los acreedores tienen prohibido considerar factores como la raza y el género para decidir si el consumidor será aprobado.

Además, la ECOA prohíbe no solo la discriminación intencional, sino también la discriminación no intencional que tiene como resultado un impacto dispar. Por ejemplo, si un algoritmo está programado para denegar crédito a los consumidores en función de su código postal (un factor aparentemente neutral) si el código postal tiene una población que está compuesta predominantemente por una minoría racial, la FTC posiblemente podría cuestionar la práctica como un violación de la ECOA. 9 

EVITE CONVERTIRSE EN UN OBJETIVO DE LA PRÓXIMA ACCIÓN DE APLICACIÓN DE LA FTC

Recuerda que eres responsable

Continúe utilizando y beneficiándose de la IA, pero recuerde que usted es responsable no solo de las acciones de las personas que emplea, sino también de la tecnología que utiliza. Si crea sus propios sistemas de inteligencia artificial, asegúrese de probar y modificar regularmente para eliminar el sesgo. Si usa IA creada por otra persona, es fundamental comprender la tecnología y los datos que usa el sistema. En caso de duda, considere contratar un abogado para examinar más de cerca sus sistemas de inteligencia artificial existentes y evaluar su riesgo de incumplimiento de los mandatos de la FTC.

Piense en un algoritmo como un cerebro que aprende y se vuelve más inteligente con el tiempo. Pruebe regularmente el sesgo cambiando o eliminando ciertos factores (como las características protegidas) del proceso de toma de decisiones, y examine cómo esto afecta los resultados. En su libro,  AI for Lawyers , Noah Waisberg y el Dr. Alexander Hudek, cofundadores de Kira Systems, nos recuerdan que aunque los sesgos pueden estar incrustados en los sistemas de inteligencia artificial, mantenemos el control de los datos utilizados por esos sistemas y, por lo tanto, tenemos el control de nuestro propio destino. 10  Elimine de manera proactiva los rasgos que no desea que el algoritmo considere y agregue datos para llenar los vacíos; si un programa excluye un género de su conjunto de datos, agregue más datos para asegurarse de que los resultados sean imparciales.

Siempre esfuércese por cumplir menos y más

Tal vez sea un cliché, pero “promesas insuficientes y entregas en exceso” es un mantra muy útil. La FTC advierte explícitamente contra la promesa excesiva de resultados justos o no sesgados a los consumidores cuando los datos subyacentes están realmente sesgados, ya sea de manera intencionada o inadvertida. 11  Por ejemplo, no prometa que su IA tomará “decisiones de contratación 100% imparciales” si el algoritmo se basa únicamente en datos de una sola raza o género. La FTC advierte que “[e] l resultado puede ser el engaño, la discriminación y una acción policial de la FTC”. 12  Si bien el objetivo final es corregir estos datos, es importante reconocer y aceptar con precisión la naturaleza imperfecta de los datos desde el principio.

La transparencia es clave

Finalmente, sé transparente. Sea auténtico y preciso. Junto con la transparencia en los esfuerzos para mejorar los resultados, sea transparente sobre los datos en los que confía. Sin transparencia, la IA seguirá estando sesgada. Además, la FTC elogia la transparencia porque crea la capacidad para que otros detecten y corrijan sesgos que una empresa puede no conocer por sí misma. 13

Si bien un fallo reciente de la Corte Suprema de Estados Unidos arroja dudas sobre el alcance de la autoridad de la FTC para hacer cumplir esta guía en el futuro, aún no debe tomarse a la ligera. 14  Como mínimo, la FTC aún puede hacer cumplir mediante mandatos judiciales, y las empresas deben tener cuidado con la prensa negativa que la acompaña y los altos costos que conlleva la defensa contra una acción de ejecución.

La nueva tecnología nunca es perfecta, pero podemos mejorarla colectivamente con el tiempo. En lugar de alejarse de la IA debido a estas imperfecciones, las empresas deberían aceptar la guía de la FTC como una oportunidad para reflexionar sobre su propia tecnología y encontrar formas de mejorarla: para la operación eficiente de la empresa, la reputación y los consumidores, sobre todo. 

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online