«Existen dudas acerca del sistema de responsabilidad civil que debería aplicarse cuando los sistemas de IA generen daños«.
Los sistemas basados en herramientas de Inteligencia Artificial (en adelante “IA”) son uno de los avances tecnológicos más relevantes de nuestra era. La IA encuentra cada vez más usos, desde el reconocimiento de imágenes o de voz hasta la conducción autónoma. No obstante, a medida que su adopción aumenta también existen dudas acerca del sistema de responsabilidad civil que debería aplicarse cuando los sistemas de IA generen daños.
Los sistemas de IA son altamente complejos y en su desarrollo pueden intervenir muchos agentes diferentes. En algunos casos, los sistemas pueden tomar decisiones de forma autónoma con fundamento en su programación, sin intervención humana. Estas características generan dificultades en la aplicación de los sistemas tradicionales de responsabilidad para IA.
Por ejemplo, si ocurre un accidente producto de una decisión del software de conducción autónomo basado en IA, la aplicación de sistemas tradicionales puede hacer muy costoso, difícil o incluso imposible para las víctimas obtener una reparación. En este ejemplo, si se aplicara un sistema basado en la culpa existiría la dificultad de demostrar la causalidad y la negligencia del agente responsable. Si se aplicara un sistema de responsabilidad por actividades peligrosas, las víctimas podrían encontrar imposible demostrar la calidad de guardián del demandado. Incluso en caso de aplicarse la responsabilidad por productos defectuosos podría ser difícil para las víctimas demostrar la existencia de un defecto.
Por lo tanto, el objetivo principal es encontrar un sistema de responsabilidad civil que permita el desarrollo, la introducción y aplicación de sistemas de IA en la sociedad y los mercados, al tiempo que brinde herramientas suficientes para proteger a las eventuales víctimas de los daños.
Con ello en mente, la Comisión Europea presentó recientemente dos proyectos de actualización normativa: (i) una propuesta de directiva sobre reglas de responsabilidad civil extracontractual para IA, y (ii) una propuesta de actualización de la directiva europea de responsabilidad por productos defectuosos, que tuviera productos basados en sistemas de IA. Estas propuestas pretenden actualizar los sistemas existentes para aliviar la carga probatoria de las víctimas y brindar seguridad jurídica.
Las propuestas de la Comisión incluyen establecer (i) cargas de revelación de evidencia a cargo del demandado; (ii) una presunción de la relación de causalidad entre el incumplimiento de un deber de cuidado previamente establecido y el daño (para los sistemas basados en culpa), y (iii) una presunción de la existencia del defecto (para el caso de la responsabilidad por productos defectuosos). Cabe agregar que también se propone adelantar una evaluación futura para determinar la conveniencia de las reglas objetivas de responsabilidad para casos de IA y la necesidad de contar con cobertura a través de seguros.
Solo el tiempo dirá si las reglas propuestas por la Comisión son suficientes y adecuadas para lograr el balance entre la seguridad para las víctimas y el desarrollo de sistemas de IA, pero por lo pronto constituyen un importante objeto de análisis en las discusiones sobre esta materia.
Fery Daniel Cure Aarón es Abogado egresado de la Pontificia Universidad Javeriana. Especialista en Regulación y Gestión de Telecomunicaciones, TIC, y Ecosistema Digital de la Universidad Externado de Colombia.