Expertos sugieren que las recompensas por sesgos podrían mejorar la ética de la IA

Un nuevo documento ha sugerido que las recompensas por sesgo podrían usarse para transformar la ética de la IA de principios a prácticas.

Antilavadodedinero / SiliconRep

Un grupo de investigadores ha propuesto que las recompensas de sesgo y las recompensas de seguridad, similares a las recompensas de errores que ofrecen una recompensa financiera a cambio de un error tecnológico informado, pueden ser la respuesta para descubrir sesgos y problemas de seguridad en inteligencia artificial (IA).

Según lo informado por VentureBeat , el documento , escrito por expertos de Google Brain, Intel, OpenAI y otros laboratorios de investigación de primer nivel en los EE. UU. Y Europa, buscó formas de convertir en práctica los principios de ética de la IA.

«Las recompensas de errores proporcionan una forma legal y convincente de informar los errores directamente a las instituciones afectadas, en lugar de exponerlos públicamente o venderlos a otros», dijo el periódico.

«Los sesgos y las recompensas de seguridad ampliarían el concepto de recompensas de errores a la IA y podrían complementar los esfuerzos existentes para documentar mejor los conjuntos de datos y modelos para sus limitaciones de rendimiento y otras propiedades».

Los investigadores agregaron que las recompensas podrían proporcionar una forma de aumentar la cantidad de escrutinio aplicado a los sistemas de inteligencia artificial, y las recompensas por seguridad, protección de la privacidad o interpretabilidad también podrían explorarse en la inteligencia artificial.

Descubrimientos de sesgo en IA

El documento hace referencia a un descubrimiento realizado el año pasado por Ziad Obermeyer, quien descubrió el sesgo racial en un algoritmo de atención médica que afectó a millones de pacientes.

Otro caso de alto perfil ocurrió en septiembre de 2019, cuando una aplicación de autofoto viral utilizó datos de crowdsourcing de ImageNet , que previamente se habían utilizado para clasificar y etiquetar imágenes de 14 millones, para etiquetar selfies para los usuarios. Sin embargo, algunos usuarios informaron que la base de datos asociaba insultos raciales con imágenes de personas de color.

La reportera de tecnología Julia Carrie Wong no quedó impresionada con los resultados que obtuvo al usar la aplicación. Ella dijo : “La gente generalmente asume que soy de cualquier origen étnico excepto chino. Tener una pieza de tecnología para afirmar mi identidad con un insulto racista y deshumanizante es extraño «.

Si bien las recompensas por sesgo podrían servir como un incentivo para eliminar el sesgo en la IA y garantizar que todos los usuarios tengan una experiencia justa y consistente, los autores de este informe en particular advirtieron que las recompensas «no son suficientes para garantizar que un sistema sea seguro, justo o equitativo «.

El documento presentaba 10 recomendaciones sobre cómo los principios de IA redactados se pueden poner en práctica, incluido un mayor escrutinio de los modelos comerciales de IA y una mayor financiación del gobierno para investigadores en el mundo académico. El informe completo se puede leer aquí .

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online