La conferencia IA ética sobre aprendizaje automático es la más grande del mundo

La diversidad y la inclusión ocuparon un lugar central en una de las conferencias de inteligencia artificial (IA) más importantes del mundo en 2018. Pero una vez que se reunió con una reputación controvertida , la conferencia de Sistemas de Procesamiento de Información Neural (NeurIPS) del mes pasado en Vancouver, Canadá, vio cambiar la atención a Otro gran problema en el campo: la ética.

Antilavadodedinero / Nature

El enfoque se presenta a medida que la investigación de IA aborda cada vez más las controversias éticas que rodean la aplicación de sus tecnologías, como la vigilancia predictiva o el reconocimiento facial . Los problemas incluyen abordar los sesgos en los algoritmos que reflejan los patrones existentes de discriminación en los datos y evitar afectar a las poblaciones ya vulnerables.

 «No existe una plataforma tecnológica neutral», advirtió Celeste Kidd, psicóloga del desarrollo de la Universidad de California, Berkeley, durante su discurso de NeurIPS sobre cómo los algoritmos pueden influir en las creencias humanas. En la reunión, que contó con un récord de 13,000 asistentes, los investigadores lidiaron con la forma de abordar de manera significativa las implicaciones éticas y sociales de su trabajo.

Brecha ética

Los especialistas en ética han debatido durante mucho tiempo los impactos de la IA y han buscado formas de utilizar la tecnología para el bien, como en la atención médica. Pero los investigadores ahora se están dando cuenta de que necesitan integrar la ética en la formulación de su investigación y comprender los posibles daños de la injusticia algorítmica, dice Meredith Whittaker, investigadora de IA en la Universidad de Nueva York y fundadora del Instituto AI Now, que busca comprender implicaciones sociales de la tecnología. 

En el último NeurIPS, los investigadores no podían «escribir, hablar o pensar» acerca de estos sistemas sin considerar posibles daños sociales, dice ella. «La pregunta es, ¿el cambio en la conversación resultará en el cambio estructural que necesitamos para garantizar que estos sistemas no causen daño?»

Conferencias como NeurIPS, que, junto con otras dos reuniones anuales, publican la mayoría de los artículos en IA, tienen cierta responsabilidad, dice Whittaker. “El campo ha explotado tanto que no hay suficientes conferencias o revisores. Pero todos quieren su papel. Así que hay una gran influencia allí ”, dice ella.

Pero la investigación presentada en NeurIPS no enfrenta una verificación ética específica como parte del proceso de revisión. Las trampas de esto fueron encapsuladas por la reacción a un artículo presentado en la conferencia.

 El estudio afirmó ser capaz de generar rostros, incluidos aspectos de la edad, el género y el origen étnico de una persona, sobre la base de las voces. Los científicos del aprendizaje automático lo criticaron en Twitter por ser transfóbico y pseudocientífico.

Posibles soluciones

Una solución podría ser introducir una revisión ética en las conferencias. NeurIPS 2019 incluyó por primera vez una lista de verificación de reproducibilidad para los documentos enviados. 

En el futuro, una vez aceptados, los documentos también podrían verificarse por su responsabilidad, dice Joelle Pineau, científica de aprendizaje automático en la Universidad McGill en Montreal, Canadá, y en Facebook, que está en el comité organizador de NeurIPS y desarrolló la lista de verificación.

NeurIPS dice que un comité de ética está disponible para tratar las preocupaciones durante el proceso de revisión existente, pero está considerando formas de hacer que su trabajo sobre los impactos éticos y sociales sea más robusto.

 Las propuestas incluyen pedirles a los autores que hagan una declaración sobre la ética de su trabajo y capacitar a los revisores para detectar violaciones de ética. Los organizadores de la Conferencia internacional anual sobre representaciones de aprendizaje, otra de las principales reuniones de inteligencia artificial, dijeron que también estaba discutiendo la idea de revisar los documentos con la ética en mente, después de las conversaciones en la comunidad.

AI ahora va un paso más allá: en un informe publicado el mes pasado , pidió que todos los documentos de investigación sobre aprendizaje automático incluyan una sección sobre daños sociales, así como la procedencia de sus conjuntos de datos. 

Estas consideraciones deben centrarse en las perspectivas de los grupos vulnerables, que AI tiende a afectar de manera desproporcionada, Abeba Birhane, un científico cognitivo de la Universidad de Dublín, dijo Negro de NeurIPS en el taller de la IA, en la que su estudio sobre ‘ética relacional’ 1 ganó el mejor papel. 

«Los algoritmos excluyen a los trabajadores de más edad, las personas trans, inmigrantes, niños», dijo Birhane, citando los usos de la IA en la contratación y vigilancia. Los desarrolladores deberían preguntar no solo cómo se podría usar su algoritmo, sino si es necesario en primer lugar, dijo.

Influencias comerciales

Las compañías tecnológicas, que son responsables de grandes cantidades de investigación de IA, también abordan la ética de su trabajo (Google solo fue responsable del 12% de los documentos en NeurIPS, según una estimación ). Pero los activistas dicen que no se les debe permitir escapar con ‘lavado de ética’. 

Las empresas tecnológicas adolecen de una falta de diversidad, y aunque algunas empresas tienen personal y juntas enteras dedicadas a la ética, los activistas advierten que a menudo tienen muy poco poder. Sus soluciones técnicas, que incluyen esfuerzos para ‘algoritmos debias’, también a menudo están equivocadas, dice Birhane. 

El enfoque sugiere erróneamente que existen conjuntos de datos libres de sesgos, y la fijación de algoritmos no resuelve los problemas raíz en los datos subyacentes, dice ella.

Ayudaría a obligar a las compañías tecnológicas a incluir a personas de los grupos afectados en los consejos de ética, dijo Fabian Rogers, un organizador comunitario de la ciudad de Nueva York. 

Rogers representa a la Asociación de inquilinos de Atlantic Plaza Towers, que luchó para evitar que su arrendador instale tecnología de reconocimiento facial sin el consentimiento de los residentes. “El contexto lo es todo, y debemos tenerlo en cuenta cuando hablamos de tecnología. Es difícil hacerlo cuando no tenemos personas necesarias para ofrecer esa perspectiva ”, dijo.

Los investigadores y los trabajadores tecnológicos en posiciones privilegiadas pueden elegir dónde trabajan y deben votar con los pies, dice Whittaker. Trabajó en Google hasta el año pasado, y en 2018 organizó una huelga del personal de Google sobre la entrega de reclamos de acoso sexual por parte de la empresa. Los investigadores deben exigir saber el uso final de lo que están trabajando, dice ella.

Otro enfoque sería cambiar las preguntas que intentan resolver, dijo Ria Kalluri, científica de aprendizaje automático en la Universidad de Stanford en California. 

Los investigadores podrían cambiar el poder hacia las personas afectadas por los modelos y sobre cuyos datos se construyen, dijo, abordando preguntas científicas que hacen que los algoritmos sean más transparentes y que creen formas para que los no expertos desafíen el funcionamiento interno de un modelo.

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online