¿Quién es responsable por los daños provocados por una inteligencia artificial?

¿Quién paga los daños provocados por un vehículo sin conductor, un dron que reparte paquetes o un robot de limpieza municipal? Se trata de tres ejemplos de inteligencia artificial (IA) que funcionan de forma autónoma, opaca y altamente compleja.

antilavadodedinero / elespanol

Para lograr una compensación, las víctimas deben demostrar que hay un infractor que ha cometido una irregularidad, que se ha producido un daño y que hay un vínculo causal: demostrar cómo la culpa ha conducido al daño.

La Comisión Europea ha aprobado este miércoles una propuesta de directiva sobre responsabilidad en materia de inteligencia artificial cuyo objetivo es dar respuesta a estos interrogantes. En concreto, la nueva norma pretende reforzar la protección de las víctimas ayudándoles a obtener compensación.

«Con esta propuesta, ofrecemos a los clientes herramientas de recurso en caso de daños causados por la IA, de modo que tengan el mismo nivel de protección que con las tecnologías tradicionales, y garantizamos la seguridad jurídica en nuestro mercado interior», ha explicado la vicepresidenta de la Comisión, Vera Jourová

La nueva norma se aplica a los daños provocados por cualquier tipo de sistema de IA, tanto si es de alto riesgo como si no lo es. Cubrirá tanto productos como servicios: facilitará, por ejemplo, la obtención de una indemnización si alguien ha sido discriminado en un proceso de contratación que implique tecnología de inteligencia artificial.

La directiva consta únicamente de dos artículos. El primero ayudará a las víctimas a acceder a las pruebas pertinentes. Los afectados podrán solicitar al juez que ordene la divulgación de información sobre los sistemas de inteligencia artificial de alto riesgo.

Esto permitirá a las víctimas identificar a la persona que podría ser considerada responsable (proveedores, desarrolladores, usuarios) y averiguar lo que ha fallado. Por otra parte, la divulgación se someterá a las salvaguardias adecuadas para proteger la información sensible, por ejemplo, los secretos comerciales.

El segundo artículo alivia la carga de la prueba de las víctimas mediante la introducción de la «presunción de causalidad«. El objetivo es evitar que el afectado tenga que explicar el funcionamiento interno de la inteligencia artificial (la ‘caja negra’), porque eso sería imposible para un particular o para una pyme. 

Con las nuevas reglas, si la víctima puede demostrar que alguien ha incurrido en culpa por no cumplir una determinada obligación pertinente en relación con el daño y que es razonablemente probable que exista un nexo causal con la actuación de la IA, el tribunal puede presumir que ese incumplimiento ha provocado el daño. Por otra parte, el presunto responsable puede refutar la presunción: por ejemplo, probando que el daño ha sido provocado por una causa diferente.

La directiva todavía debe ser aprobada y debatida tanto por la Eurocámara como por los Gobiernos de los 27. Cubrirá las demandas nacionales de responsabilidad basadas en la culpa u omisión de cualquier persona (proveedores, desarrolladores, usuarios); la indemnización de cualquier tipo de daño contemplado en la legislación nacional (vida, salud, propiedad, privacidad, etc.) y cualquier tipo de víctima (particulares, empresas, organizaciones).

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online