Cómo tratar temas sobre la ética de inteligencia artificial

Si desea comprender cómo piensan (y sienten) las personas sobre las nuevas tecnologías, es importante comprender cómo piensan (y escriben) los medios de comunicación sobre las nuevas tecnologías.

Antilavadodedinero / News.ncsu

Un análisis reciente de cómo los periodistas han abordado la ética de la inteligencia artificial (IA) sugiere que los periodistas están haciendo un buen trabajo al lidiar con un conjunto complejo de preguntas, pero hay margen de mejora.

Para aprender más sobre el trabajo, por qué lo hicieron y por qué es importante, hablamos con los investigadores que hicieron el trabajo: Veljko Dubljević , autor correspondiente del artículo y profesor asistente de filosofía en NC State; Leila Ouchchy, primera autora del artículo y ex estudiante de pregrado en NC State; y Allen Coin, coautor del artículo y estudiante de posgrado en NC State.

El resumen: este documento se centra, en parte, en cuestiones éticas relacionadas con las tecnologías de IA que las personas usarían en su vida diaria. ¿Me podría dar uno o dos ejemplos?

Allen Coin: Probablemente la aplicación más conocida de IA con implicaciones éticas muy reales serían los autos sin conductor. Si un automóvil autónomo se encuentra en una situación en la que, por ejemplo, ha perdido el control de sus frenos y debe chocar con un niño o un adulto, ¿qué debe hacer? 

Si está ‘conduciendo’ un automóvil autónomo y queda inconsciente, y el automóvil se cae sin control y tiene la opción de chocar contra un peatón, salvando así su vida, o conduciendo por un acantilado, sacrificando así su vida, ¿qué debería? ¿hacer? ¿Qué le gustaría que su coche para hacer en esa situación?

Estos son » problemas de tranvía » del mundo real por los que incluso los seres humanos tendrían dificultades para tomar decisiones morales y éticas en el calor del momento.

Otro ejemplo un poco más insidioso sería cómo los prejuicios y prejuicios humanos aparentemente tienden a surgir en las aplicaciones de IA que desarrollan los humanos. Los algoritmos de aprendizaje automático, por ejemplo, están tocando más y más áreas de la vida humana. Pero estos algoritmos deben ser «entrenados» en conjuntos de datos del mundo real. 

Si los conjuntos de datos representan un comportamiento humano con prejuicios, incluso si no es inmediatamente aparente o si intenta ocultarlo, eso puede significar que el software resultante no es capaz de actuar de manera objetiva.

Un ejemplo sería el software de recursos humanos para grandes corporaciones que evalúa a los solicitantes de empleo en función de rasgos similares a los solicitantes exitosos anteriormente, lo que significa que si hubo un sesgo de género o raza cuando los humanos tomaban las decisiones de contratación, entonces el «robot» podría seguir comportándose con esos sesgos al seleccionar candidatos.

TA: Para esta investigación, examinó específicamente cómo los medios de comunicación cubrieron estas consideraciones éticas. ¿Por qué?

Leila Ouchchy: Analizamos específicamente los medios de comunicación debido al efecto que las noticias pueden tener en la opinión pública sobre las nuevas tecnologías. La cobertura mediática de la ética de la IA tiene el potencial de impactar cómo se implementa la IA en nuestra sociedad, desde los tipos de IA producidos por las empresas hasta la forma en que el gobierno regula la IA.

TA: ¿Por qué no mirar también las formas en que se trata la ética de la IA en la cultura popular, como la televisión o el cine? ¿No informan y reflejan también las preocupaciones públicas?

Veljko Dubljević: La representación pública de los problemas éticos en IA en la ficción ya ha recibido más atención en la comunidad académica, y eso es bueno y malo.

Lo bueno de esto es que tenemos algunos análisis por ahí, que pueden ser útiles.

El lado malo, sin embargo, es que esto no está firmemente basado en hechos científicos y tecnologías ya disponibles, lo que lo hace más propenso a las exageraciones utópicas y distópicas.

TA: ¿Qué encontró su análisis de los medios de comunicación? ¿Y qué significa eso?

Ouchchy: Hubo un fuerte aumento en el número de artículos publicados en los últimos años, lo que demuestra que la cantidad de contenido de los medios que se publica sobre la ética de la IA ha aumentado continuamente, y probablemente continuará aumentando a medida que esto se convierta en un tema más frecuente . 

Además, hubo poca discusión sobre los marcos éticos y los principios basados ​​en ellos, lo que sugiere una falta de participación o influencia de los especialistas en ética en la discusión de los medios. Finalmente, encontramos que los artículos tenían tonos principalmente neutros y se enfocaban en temas prácticos y relevantes, aunque sus recomendaciones no eran muy específicas. Esto muestra que la discusión en los medios sobre la ética de la IA es relativamente sofisticada, pero aún está en sus primeras etapas.

TA: ¿Qué podrían o deberían hacer los periodistas de manera diferente en su cobertura de ética y tecnologías de IA?

Dubljević: Los periodistas pueden beneficiarse de comunicarse con expertos en tecnología de IA y especialistas en ética para aclarar los hechos y valores relevantes. La discusión puede ser relativamente sofisticada, pero ciertamente hay margen de mejora.

Moneda: Para agregar a este punto, una cosa que me llamó la atención sobre los hallazgos de esta investigación es que uno de los «marcos éticos» más comúnmente citados en los artículos sobre ética de la IA es «Las tres leyes de la robótica » de Isaac Asimov . Ahora, ciertamente soy un fanático de la ciencia ficción de Asimov, pero sus «Tres leyes» no es un marco ético formal. Tampoco es muy útil en el contexto de las discusiones del mundo real sobre cómo la IA puede y debe comportarse éticamente.

El utilitarismo también se discutió comúnmente en los artículos de noticias sobre la ética de la IA, por lo que creo que hay una oportunidad para modernizar cómo estamos hablando de la ética de la IA. Específicamente, podríamos, o deberíamos, usar marcos éticos más modernos que sean capaces de abordar las complejidades y la complejidad de las aplicaciones del mundo real de los agentes morales artificiales. 

También estoy de acuerdo con Veljko en que los periodistas deben comunicarse con los investigadores y especialistas en ética de la IA con más frecuencia. Creo que hay muchos expertos que hablarían con gusto de cualquier periodista que desee obtener una perspectiva ética detallada sobre cualquier noticia relacionada con la IA. .

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online