"Las máquinas podrán hacer cualquier cosa que hagan las personas, porque las personas no son más que máquinas"

Marvyn Minsky Octubre, 1996

Entes Capaces No Personales. ¿Hacia una personalidad para los robots?1

Pablo García Mexía, J.D., Ph.D.
Jurista digital. Letrado de las Cortes. Of Counsel en Ashurst LLP
www.PabloGMexia.net

Cada vez es más frecuente la presencia de robots en diferentes ámbitos de nuestro día a día. Así lo acredita uno de los estudios más difundidos en el mundo sobre el tema, elaborado en la Universidad de Stanford2. No es de extrañar, puesto que, como la OCDE subraya, la Inteligencia Artificial constituye una de las cuatro tecnologías digitales disruptivas de este mismo momento histórico.3

La propia IA y su aplicación en la robótica ponen ya de manifiesto si, a fin de resolver algunos de los problemas que estas tecnologías están ya generando, puede tener sentido atribuir a estos ingenios una personalidad, algún haz de derechos y ciertas responsabilidades. El planteamiento no está evidentemente exento de problemas, pues tales atributos han estado siempre ligados, es también evidente, a la condición de persona, ya física, ya jurídica.

Es bien sabido que, en lo que a la persona física se refiere, tanto el Derecho romano como el Derecho civil han venido distinguiendo entre la que es jurídicamente capaz y la persona incapaz. Si seguimos por ejemplo a Ferrara, la persona jurídicamente capaz es aquélla que puede llevar a cabo negocios (jurídicos), participar en procesos y, por supuesto, cometer actos ilícitos (en su caso, penales).

Sin embargo, en una realidad social en la que la IA, e ingenios propios de ella como los robots, formarán parte decisiva de nuestra vida cotidiana, será crecientemente frecuente topar con ingenios robóticos que estén en perfectas condiciones de negociar, actuar en proceso e incluso cometer algún delito. Si la IA está ya más que capacitada para derrotar a los mejores humanos en juegos de enorme destreza mental, ¿cómo no verlos aptos para celebrar una compra sencilla? ¿O para defender un crédito ante un tribunal? ¿O para saltarse temerariamente un semáforo a fin evitar llegar tarde a algún lugar?

Esto es lo que me lleva a sostener que, ya en el actual estadio de desarrollo tecnológico de la IA y de la robótica, “el capaz” puede no ser únicamente la persona humana, sino que quizá debemos sumar a este concepto un nuevo agente: el que podríamos denominar Ente Capaz No Personal (en adelante ECNP).

Su misma corporeidad, materializada o no en forma humana (humanoides, drones, vehículos autónomos, etc.), permite fácilmente catalogar estos ingenios como “entes”.4 Mientras que hay argumentos a mi entender suficientes para sostener que este ECNP no es una cosa, al menos comparable a lo que por tal se ha venido entendiendo, también secularmente. Si por algo se caracterizan los ingenios artificialmente inteligentes es por las facultades cognitivas que poseen: piensan, aprenden, perciben, deciden.5 Facultades cognitivas a su vez tan necesarias como suficientes para hacer jurídicamente capaces a estos “entes”.

Siendo esto así, la barrera que obviamente no resulta posible traspasar es la de considerarlos “personas”. Puede llegar a ser cierto que el avance de estas tecnologías nos empuje a redefinir lo que por “persona” se debe entender.6 Es natural, a la vista de la patente obsolescencia frente a la IA, de nociones tan extendidas y arraigadas como por ejemplo la de Boecio, quien ya en el siglo VI catalogaba la persona como “sustancia individual de naturaleza racional”. Un humanoide, incluso medianamente inteligente, satisface el test. Sea como fuere, el simple hecho de “nacer de mujer” imbuye en el ser humano un atributo absolutamente único, no compartido con ningún otro ser, racional o irracional, capaz o incapaz. De ahí la nota “no personal” con la que etiquetamos al ECNP.

Así las cosas, y si bien quizá en menor medida en Europa que, por citar un caso, en Japón, los ECNP están ya “en la calle”. Si ello es así, lógico es exigir que se acomoden en su conducta a los valores de las personas, a los valores humanos.7

Sin embargo, como ha acreditado un relevante estudio de la Oficina Ejecutiva de la Presidencia norteamericana (junto a otros entes), los ECNP están en condiciones dedesplegar conductas sin duda inteligentes, pero también imprevisibles y difíciles de entender.8

Y aquí surge el problema. ¿Tiene sentido mantener un escenario como el tradicional, de perfecta identidad entre el “ser capaz” y el “ser personal”? ¿Tiene sentido mantener este escenario cuando tenemos ya en la calle entes capaces, aunque no personales, ECNPs, que, debiendo respetar los valores humanos, pueden actuar impredeciblemente y con pautas difíciles de entender, de forma que infrinjan tales valores, de forma que infrinjan leyes?

Más concretamente, y en tales supuestos de infracción de valores que se plasman en infracción de normas jurídicas (penales, civiles, etc.), ¿quién ha de responder?

Algunos piensan que la responsabilidad ante supuestos de este tipo debe siempre imputarse a una persona, ya sea el fabricante, ya el importador, ya el dueño del robot, etc. en función de las circunstancias que correspondan. Es el caso del British Standards Institute, que expone esta tesis en un informe sobre el tema de 2016.9

Por mi parte, veo en cambio sentido a un escenario alternativo en el que coexistan un ente capaz “persona física”, un ente capaz “persona jurídica” y un ECNP o ente capaz con “personalidad digital”.

La palanca que considero de mayor utilidad para dar ese “salto” son las lecciones aprendidas de la evolución del concepto de persona jurídica.Como acredita Ferrara, la persona jurídica nace hace un milenio como solución empírica a los problemas más acuciantes del empresario medieval: poder acometer en el mercado fines duraderos (más allá de la vida del individuo), gracias a hacerlo con carácter colectivo. Pues bien, esta noción de persona jurídica que, por definición, la equiparaba a la de entes de naturaleza colectiva, ha quedado recientemente quebrada con la admisión en Derecho de la sociedad unipersonal, con el interesante fin de limitar la responsabilidad del empresario individual. Una sola persona física puede constituir una persona jurídica.

Más recientemente aún, se daba otro paso “herético”, y lo decimos porque ha supuesto dar al traste con un adagio clásico: societas delinquere non potest. Ahora ya sí que una sociedad puede delinquir: inspirado en pautas legales anglosajonas, y empujado por orientaciones europeas, nuestro Código Penal ha consagrado la responsabilidad penal de la persona jurídica, en este caso con el fin de asegurar la responsabilidad criminal de las personas físicas, que tantas veces se han venido ocultando tras el “velo societario” para cometer delitos.

Por todo esto, veo fundada la idea de la personalidad digital de los ECNP, que estimo ha de anclarse en los siguientes pilares:

  • Sus fines serían, como en su momento con la sociedad unipersonal y con la responsabilidad penal de la persona jurídica, limitar el riesgo para quien fabrica, o distribuye o posee un ingenio artificialmente inteligente, según los casos; y, a la vez, garantizar esa responsabilidad, pues puede llegar a ser difícil identificar el quid y determinar el quantum en unos u otros supuestos.
  • Los titulares de esa personalidad, parece debieran ser los ECNP suficientemente complejos como para actuar en condición de capaces, conforme a las pautas anteriores.
  • ¿Qué derechos podrían conformar esa personalidad digital? Desde luego no los constitucionales, absolutamente consustanciales a la dignidad de las personas (humanas). Estaríamos pensando en derechos de índole meramente patrimonial y, además de ello, en una cierta legitimación legal para actuar en procesos.
  • Y, ¿qué obligaciones comportaría? Hasta tanto la IA no implique conciencia del bien y del mal (si es que algún día llegara a implicarla), parece evidente que la responsabilidad debiera circunscribirse al plano civil, habiendo solamente de exigirse a un robot las responsabilidades por daños que éste hubiera debido prever.10

Esta noción de personalidad digital, predicable de los ECNPs, puede sernos válida durante todo el tiempo que mediase hasta que, si es que hubiera de hacerse realidad, la llamada Superinteligencia efectivamente llegara a plasmarse. Ésta, como forma superior de IA, se caracteriza, no por ser un mero instrumento del ser humano, sino por configurarse en entes plenamente autónomos 11; y, lo que a nuestros efectos resulta clave, por tener conciencia del bien y del mal, por poder actuar con intencionalidad.12 Ello cambiaría ya radicalmente el panorama regulatorio, pues esa concurrencia de intencionalidad nos permitiría incluso hablar de responsabilidad penal. Y, si a la vez tenemos en cuenta, como en su momento expusiera el maestro Tomás y Valiente, que todo código penal es una suerte de “Constitución en negativo”, un paso siguiente, no carente de lógica, podría ser el de reconocer derechos de índoleconstitucional a un ingenio “superinteligente”; no obstante, somos bien conscientes de que, incluso en tales supuestos, una pretendida “dignidad digital” no debiera equipararse nunca a la “intocable” dignidad personal.13

Pero éstos últimos son, pese a las serias discrepancias entre los tecnólogos al respecto, futuribles aún probablemente muy lejanos. Entretanto, conformémonos con resolver los problemas que ya están sobre la mesa. Sobre todo, si tenemos en cuenta que la IA evidencia aún hoy, en muchos casos, lamentables carencias de “sentido común”.14 No es poca tarea para empezar.


Notas

  1. Este artículo está basado en la conferencia pronunciada por el autor en el evento Robotiuris 2016, celebrado en Madrid el día 24 de noviembre de 2016, organizado por FIDE y dirigido por A. Sánchez del Campo.
    Agradezco a Beatriz Aranda Briones, Investigadora en Syntagma.org, su gran ayuda en la composición de este trabajo.
  2. https://ai100.stanford.edu/2016-report
    En ese mismo trabajo se resalta que, a medida que esto sucede, el foco está pasando de “simplemente crear sistemas que son inteligentes, a crear sistemas inteligentes que sean conscientes de la presencia humana y dignos de confianza.”
  3. OECD, Science, Technology and Innovation Outlook 2016, http://www.keepeek.com/Digital-Asset-Management/oecd/science-and-technology/oecd-science-technology-and-innovation-outlook-2016_sti_in_outlook-2016-en#page81
  4. R. Calo, “La robótica y las lecciones del Derecho cibernético”, Revista de privacidad y Derecho digital, nº 2, enero de 2016, p. 157.
  5. R. Calo, op. cit., p. 155-157.
  6. Acerca de la redefinición de persona que la irrupción de tecnologías como la IA (y otras aledañas, como la nanotecnología o las derivadas de la ingeniería genética) puede llegar a comportar, cfr. L. Ferry, La revolución transhumanista, Alianza Editorial, 2017.
  7. Así lo exigen diversas declaraciones éticas en la materia. Entre ellas, los llamados Principios de Asilomar (Puerto Rico) de 2015, que se pueden encontrar aquí: https://futureoflife.org/ai-principles/ Y es también el parecer de pioneros en IA de tanta relevancia como Stuart Russell, cfr. https://www.theguardian.com/technology/2016/aug/30/rise-of-robots-evil-artificial-intelligence-uc-berkeley?utm_content=bufferb6f39&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
  8. Executive Office of the President, National Science and Technology Council, Committee on Technology, Preparing for the Future of Artificial Intelligence, octubre de 2016, https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf, pgs. 9 y 31.
  9. British Standards Institute, Robots and robotic devices. Guide to the ethical design and application of robots and robotic systems, BS 8611:2016, abril de 2016. Es un documento de acceso restringido. Para una buena síntesis, cfr. https://www.theguardian.com/technology/2016/sep/18/official-guidance-robot-ethics-british-standards-institute
  10. También el informe Robolaw, elaborado bajo un proyecto de la Comisión Europea, propugna el reconocimiento de una “personalidad electrónica”, bajo determinadas condiciones, a robots. www.robolaw.eu
    Fruto de estos trabajos es sin duda la Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL)).
  11. Ph. Torres, “Agential Risks: A Comprehensive Introduction”, Journal of Evolution and Technology, vol. 26 Issue 2, Agosto de 2016, pgs 31-47. Disponible en: http://jetpress.org/v26.2/torres.htm
  12. R. V. Yampolskiy, “Taxonomy of Pathways to Dangerous Artificial Intelligence”, The Workshops of the Thirtieth AAAI Conference on Artificial Intelligence AI, Ethics, and Society: Technical Report WS-16-02, p. 143-148. Disponible en: https://www.aaai.org/ocs/index.php/WS/AAAIW16/paper/view/12566/12356
  13. Conviene recordar que artículo 1.1 de la Constitución alemana, en el que se inspiró, por ejemplo, el artículo 10.1 de la Constitución española, proclama justamente esa “intangibilidad” de la dignidad humana.
  14. Executive Office y otros, op.cit., pg. 33.

Usamos cookies de terceros a efectos estadísticos si fuera por nosotros no usaríamos cookies pero es lo que hay. Si continúas navegando consideramos que acepta el uso de cookies.
OK | Más información