Hoy por hoy los robots son objetos, más o menos complejos, con un propietario claro y definido, que es a quien habrá que pedir explicaciones; no son seres “autónomos” e independientes, con “derechos y obligaciones” propios y específicos.
Los robots están de enhorabuena. Por fin alguien, en este desagradecido mundo, está peleando -con uñas, dientes y nuestro dinero- para que se les reconozcan de una vez “derechos y obligaciones”… Ya sé que muchos de Uds. no darán crédito a lo que acabo de escribir; que estarán atónitos… y casi tan entusiasmados como yo por la noticia… ¡Por fin!… ¡Por fin nuestros políticos se han dado cuenta de la enorme injusticia que estábamos cometiendo con estas pobres criaturas de Dios! Ya podemos estar tranquilos: el Parlamento Europeo, a través de su Comisión de Asuntos Jurídicos, se ha puesto manos a la obra. Y ya saben que cuando nuestros parlamentarios se ponen, se ponen.
Poco antes de irnos de vacaciones, y para darles tarea a sus compañeros de la Comisión de Asuntos Jurídicos, una europarlamentaria luxemburguesa, Mady Delvaux, evacuó (no sabemos si sola o con ayuda de otros) un “Proyecto de Informe”, en el que, entre otras cosas, proclamaba que:
“(…) La autonomía de los robots suscita la cuestión de su condición y pertenencia a una de las categorías jurídicas existentes -es decir, si deben considerarse personas físicas, personas jurídicas, animales u objetos-, o de la creación de una nueva categoría, con sus propias características y repercusiones en lo que se refiere a atribución de derechos y obligaciones, incluida la responsabilidad por daños” (…) “Pide a la comisión que, cuando realice una evaluación de impacto de su futuro instrumento legislativo, explore las implicaciones de todas las posibles soluciones jurídicas, tales como: (…) f) crear una personalidad jurídica específica para los robots, de modo que al menos los robots autónomos más complejos puedan ser considerados personas electrónicas con derechos y obligaciones específicos”. “Persona electrónica”, suena bien; lástima que ello suponga reventar la dogmática jurídica desde su médula.
- “(…) El futuro instrumento legislativo debe prever, como regla general, la aplicación de la responsabilidad objetiva, lo que únicamente exige probar que se ha producido un daño y el establecimiento de un nexo causal entre el comportamiento perjudicial del robot y los daños causados a la persona perjudicada”. ¿Era necesario hacer esa aclaración? Aunque, si son personas ¿por qué no exigir una responsabilidad subjetiva, con la “culpabilidad” como elemento más o menos relevante? ¿Acaso no influye el “aprendizaje” y la “autonomía” en la responsabilidad, como veremos después? ¿Y qué me dice de la responsabilidad por “omisión”? ¿Acaso no debemos exigirle al robot que actúe cuando con ello pueda beneficiar a un tercero? ¡Qué egoísta el robot! ¿Qué le cuesta?
- “(…) una vez que las partes responsables hayan sido identificadas en última instancia, su responsabilidad será proporcional al nivel real de las instrucciones dadas a los robots y a su autonomía, por lo que cuanto mayor sea la capacidad de aprendizaje o la autonomía, menor será la responsabilidad de las otras partes”. ¿En qué quedamos, incluimos la autonomía y el aprendizaje como elementos determinantes del grado de responsabilidad, o nos decantamos por una responsabilidad estrictamente objetiva? ¿Qué ocurre con el dueño del robot? ¿Tienen los robots dueño? ¿Es el dueño responsable? ¿Con qué tipo de responsabilidad, objetiva o subjetiva, directa o subsidiaria, solidaria o mancomunada?
- “Cualquier solución jurídica elegida en materia de responsabilidad de los robots para los supuestos diferentes de los daños materiales no debería en modo alguno limitar el tipo o el alcance de los daños y perjuicios que puedan ser objeto de compensación”. ¿A qué se refiere con daños “diferentes” de los “materiales”? ¿En qué está pensando la Sra. Delvaux, en daños “morales” ocasionados por un robot tal vez?
- “Pide a la Comisión que proponga una definición europea común de robot autónomo inteligente y de sus distintas subcategorías”. ¿En qué se van a basar para proponer esa definición? ¿Cómo van a definir algo que está desarrollándose a marchas forzadas y sobre lo que ni siquiera tienen las ideas claras? ¿Será una definición definitiva? ¿La irán actualizando todos los años? ¿Se trata de una definición con fines estrictamente jurídicos?
Una vez se hizo público el “Proyecto de Informe”, muchos periodistas se centraron en las posibles consecuencias económicas y fiscales que el referido “reconocimiento de derechos y obligaciones” podría tener (por ejemplo, aquí, aquí, aquí, y aquí); al fin y al cabo, si se les reconocen a los robots derechos y obligaciones, ¿por qué no hacerles pagar impuestos? ¿Acaso no está abriendo esa puerta el propio Informe al señalar que “el desarrollo de la robótica y la inteligencia artificial puede conllevar que los robots asuman gran parte del trabajo que ahora realizan los seres humanos, cuestión esta que genera interrogantes sobre el futuro del empleo y la viabilidad de los sistemas de seguridad social”? ¿Por qué no hacer que sean los robots quienes nos paguen las pensiones?
Lo más relevante del Informe, sin embargo, no son las posibles implicaciones fiscales, a pesar de la grave situación de los sistemas de seguridad social (que ya han explicado brillantemente otros compañeros habituales de esta casa aquí, aquí, aquí y aquí); tampoco lo es que las medidas regulatorias que propugna la Sra. Delvaux limiten, en mayor o menor medida, el desarrollo tecnológico y económico futuro, aunque también tenga su interés (doy por hecho, lector, que desde el primer segundo comprendió que la propuesta, además de lo ya señalado, contiene mil y una medidas que limitan la libertad económica y de empresa). Lo grave es que se trata de una propuesta con la que pretenden imponernos cómo debemos ser y pensar, qué debemos entender por “persona” desde un punto de vista tanto filosófico, como ético, moral y/o jurídico (al fin y al cabo, el concepto -y las implicaciones jurídicas- que nos impongan sobre lo que es una “persona” electrónica condicionará, en mayor o menor medida, los rasgos definitorios de lo que entendamos por “persona” física); cómo deben ser las relaciones que esa “persona física” establezca con los “robots”, creaciones suyas pero que gozarán de cada vez mayor “autonomía” y con las que se podrá satisfacer cada vez más necesidades; qué criterios éticos deben dirigir la investigación y el desarrollo de la inteligencia artificial, etc…
Muchos dirán que, con todo, se trataba de una materia -el desarrollo de la robótica y de la inteligencia artificial- que necesitaba ser regulada y que, mal que bien, la propuesta es tan sólo una de las posibles soluciones técnico-jurídicas. Dirán Uds. que soy un conspiranoico, pero no creo que se trate sólo de buscar una solución “técnico-jurídica”. ¿De verdad no bastaba con desarrollar más y mejor las normas y principios ya vigentes (derecho de propiedad, principios de responsabilidad civil y derecho penal…), sin necesidad de crear nuevas categorías que trastocan por completo un Ordenamiento Jurídico cuyos principios, en lo esencial, y a pesar de los políticos, llevan cientos de años funcionando? Hoy por hoy los robots no son más que objetos, más o menos complejos, con un propietario claro y definido, que es a quien, en su caso, habrá que ir a pedir explicaciones; no son seres “autónomos” e independientes, con “derechos y obligaciones” propios y específicos. Pretenderlo, aunque sólo sea como “ficción jurídica”, genera muchísimos más problemas de los que quieren nuestros políticos, aparentemente, solucionar. En próximos artículos intentaré desarrollar más extensamente por qué.
Aún no hay comentarios, ¡añada su voz abajo!