El 31 de mayo de 2016, la Comisión de Asuntos Jurídicos del Parlamento Europeo publicó su Proyecto de informe con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica [2015/2103(INL) (*)]. Entre sus considerandos, este documento se planteó que, cuanto más autónomos sean los robots, menos se los podrá considerar simples instrumentos en manos de otros agentes (como el fabricante, el propietario, el usuario, etc.); y que, debido a esto, la normativa general sobre responsabilidad resulta insuficiente y precisa de nuevas normas que se centren en cómo una máquina puede considerarse parcial o totalmente responsable de sus actos u omisiones; que, como consecuencia de ello, resulta cada vez más urgente abordar la cuestión fundamental de si los robots deben tener personalidad jurídica (§S).
Asimismo, señaló que independientemente del instrumento jurídico futuro que se escoja en materia de responsabilidad de los robots (§26), (…) el futuro instrumento legislativo debe prever, como regla general, la aplicación de la responsabilidad objetiva, lo que únicamente exige probar que se ha producido un daño y el establecimiento de un nexo causal entre el comportamiento perjudicial del robot y los daños causados a la persona perjudicada (§27); proponiendo que una posible solución a la complejidad de la asignación de responsabilidad por los daños causados por robots cada vez más autónomos, podría ser el establecimiento de régimen de seguro obligatorio, como ya ocurre, por ejemplo, con los coches; no obstante, observa que, a diferencia del régimen de seguros en materia de circulación por carretera, en los que el seguro cubre tanto las actuaciones humanas como los fallos, un sistema de seguros para robots podría basarse en la obligación del fabricante de suscribir un seguro para los robots autónomos que produce (§29).
Por todo ello, le pidió al ejecutivo comunitario que, cuando realice una evaluación de impacto de su futuro instrumento legislativo, explore las implicaciones de todas las posibles soluciones jurídicas, tales como: (…) f) crear una personalidad jurídica específica para los robots, de modo que al menos los robots autónomos más complejos puedan ser considerados personas electrónicas con derechos y obligaciones específicos, incluida la obligación de reparar los daños que puedan causar; la personalidad electrónico se aplicaría a los supuestos en que los robots puedan tomar decisiones autónomas inteligentes o interactuar con terceros de forma independiente (§31).
Para la abogada Ana Mª Aransay, (…) la admisión de esta personalidad jurídica digital se asimilaría a la figura, ya existente, de personalidad jurídica societaria del derecho mercantil que otorga reconocimiento público y jurídico al fenómeno de la empresa [ARANSAY ALEJANDRE, A. Mª. “Antecedentes y propuestas para la regulación jurídica de los robots”. En BARRIO ANDRÉS, M. (Dtor). Derecho de los Robots. Madrid: Wolters Kluwer, 2018, p. 101].
Finalmente, en línea con la propuesta de la Comisión de Asuntos Jurídicos, la Resolución de 16 de febrero de 2017, del Parlamento Europeo, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, terminó pidiendo lo mismo al ejecutivo (…) crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente [§59.f)] (*).
Por el contrario, tres meses más tarde, el Dictamen del Comité Económico y Social Europeo sobre la «Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad» (*), aprobado en el pleno del 31 de mayo de 2017, se mostró categórico al respecto: (…) El CESE está en contra de la introducción de cualquier tipo de personalidad jurídica para los robots o la IA [Inteligencia Artificial], puesto que socavaría los efectos correctores preventivos de la legislación en materia de responsabilidad, generaría un riesgo moral tanto en el desarrollo como en la utilización de la IA y daría lugar a un posible uso indebido (§1.12). (…) El CESE se opone a cualquier tipo de estatuto jurídico para los robots o sistemas de IA por el riesgo moral inaceptable que ello conlleva. La legislación en materia de responsabilidad tiene un efecto correctivo y preventivo que podría desaparecer en cuanto el riesgo de responsabilidad civil dejase de recaer sobre el autor por haberse transferido al robot (§3.33).
Concluyendo, en ese mismo parágrafo, que: La comparación con la responsabilidad limitada de las sociedades no es válida, puesto que el responsable en última instancia es siempre una persona física. A este respecto, hay que investigar en qué medida responden satisfactoriamente a este problema la legislación, la reglamentación y la jurisprudencia de la UE y de cada Estado miembro en materia de responsabilidad (sobre el producto y el riesgo) y atribución de culpa, y, en su defecto, qué soluciones legales se ofrecen.
Por último, este órgano consultivo de la Unión Europea remarca una idea básica: La IA no conoce fronteras. Por consiguiente, es importante examinar la necesidad de una reglamentación mundial, pues la normativa regional será insuficiente e incluso de efectos no deseados (§3.35).
En el otro extremo del mundo, el profesor Solaiman, de la Wollongong University (Australia), también se opone a comparar la situación jurídica de los robots con las sociedades mercantiles al considerar que: Los defensores de la personalidad de los robots se basan en la personalidad jurídica de las empresas, ignorando la consideración fundamental de que la personalidad corporativa es esencialmente un símbolo de las personas que están detrás de la entidad [Solaiman, S. M., “Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy”. Artificial Intelligence and Law, 2017, p. 36 (*)].
Por el momento, en el seno de la Unión Europea, este debate –aunque pueda sonar a derecho ficción– continúa abierto; pero no está de más recordar que, en España, hasta 2010 se aplicaba el conocido aforismo latino de Societas delinquere non potest y parecía imposible tipificar la responsabilidad penal de una persona jurídica… hasta que se aprobó la Ley Orgánica 5/2010 de 22 de junio, de reforma del Código Penal y, hoy en día, se regula de manera pormenorizada en el Art. 31 bis CP. Así que, todo es posible.
NB: Semana de Europa | Mayo es el mes del Viejo Continente y su fiesta se celebra el día 5 en el ámbito del Consejo de Europa (por el aniversario del Tratado de Londres de 1948 que lo fundó) y el 9 en la Unión Europea (para recordar la Declaración de Robert Schuman que dio lugar a la CECA).
Hola, ¿actualmente la Comisión se ha pronunciado sobre la Propuesta que nos comentas?
ResponderEliminarHola José, buenas tardes:
EliminarHasta donde yo sé, el Parlamento Europeo ha ido adoptando otras nuevas resoluciones; por ejemplo, las de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica; de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas; y de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial. En esta última se afirma que: "(...) no es necesario atribuir personalidad jurídica a los sistemas de IA" y que "Cualquier cambio necesario del marco jurídico vigente debe comenzar con la aclaración de que los sistemas de IA no tienen personalidad jurídica ni conciencia humana, y que su única función es servir a la humanidad". Gracias por consultar mi blog y por haberme escrito. Felices fiestas.