Jornada 25 Aniversario Asociacion de Internautas


opinión de ofelia tejerina

La culpa es del robot


Europa abre el debate de la regulación de la robótica recomendando que paguen impuestos y que se imponga un seguro de accidentes para posibles daños, no solo físicos, sino también los provocados por el mal uso de la información que recaben, almacenen, creen o transfieran. Ningún robot causará daño a un ser humano o permitirá, con su inacción, que un ser humano resulte dañado. La UE, en un informe de 2013, recomienda la creación de un registro de robots y una agencia europea de supervisión. La inteligencia artificial implica que las máquinas pueden ser adiestradas, pero también que pueden aprender




En 1940 Isaac Asimov, tras una supuesta conversación con John W. Campbell, resumió tres leyes de la robótica en: 1. Ningún robot causará daño a un ser humano o permitirá, con su inacción, que un ser humano resulte dañado; 2. Todo robot obedecerá las órdenes recibidas de los seres humanos, excepto cuando esas órdenes puedan entrar en contradicción con la primera ley; 3. Todo robot debe proteger su propia existencia, siempre y cuando esta protección no entre en contradicción con la primera o la segunda ley. (Runaround, 1942).

Podemos considerarlos como los tres principios fundamentales del derecho natural de la robótica, y que sin duda condicionarán el futuro desarrollo legal de su responsabilidad por daños: "eh, robot, aquí mando yo?" por tanto, ese ?yo? (quien esté detrás del instrumento) será el responsable. Así nos lo planteamos desde la configuración del derecho actual, si la máquina no tiene conciencia, la máquina no es imputable. Sin embargo, ¿es esto suficiente como exención de responsabilidad? ¿Imaginaba Asimov casi 80 años después un Parlamento Europeo se plantearía elaborar leyes de la robótica para regular su relación con la sociedad? Parece de Hollywood, pero no lo es, y existe esa mesa de trabajo. El debate se inició hace dos años [Comisión sobre leyes civiles para la robótica, Informe 2015/2103 (INL) 31.05.2016] partiendo de una prioridad: contar con un ?interruptor de emergencia? que desactive la máquina en caso de ser necesario. Además, recomienda la creación de un registro de robots y una agencia europea de supervisión, informar sobre su desarrollo técnico, ir trabajando en un código de conducta para su ?diseño ético, producción y uso?, definir legalmente el estatus del robot inteligente autónomo, etc. Se habla de que paguen impuestos e incluso de imponer un seguro de accidentes para cubrir posibles daños, no solo físicos, sino también aquellos provocados por el mal uso de la información que puedan recabar, almacenar, crear o transferir.

Se habla de que paguen impuestos e incluso de imponer un seguro de accidentes para cubrir posibles daños, no sólo físicos, sino también aquellos provocados por el mal uso de la información que puedan recabar, almacenar, crear o transferir

Ante este escenario, cualquier jurista se preguntaría en primer lugar quien estará detrás de ese "killer switch", el "yo mando" y los límites de su responsabilidad cuando los robots proyecten consecuencias lesivas por errores de programación o incluso de manipulaciones de terceros (p.ej. ataques DDoS). Pero, en realidad, considero que existen ya múltiples normas que podrán delimitar esas responsabilidades, por ejemplo, con base en la presunción por culpa ?in eligendo? o ?culpa in vigilando? (Lex Aquilia, art. 1903 CC) o sobre supuestos más concretos de responsabilidad legal de la persona jurídica, del dueño de un perro de raza "potencialmente peligrosa", del programador informático y la participación del usuario, etc.

Sin embargo, existe otra cuestión mucho más compleja: la capacidad de aprendizaje y reflexión del robot autónomo. La inteligencia artificial implica que las máquinas pueden ser adiestradas, pero también que pueden aprender conductas por sí mismas y, salvo mejor opinión en derecho, creo que sus posibilidades no son comparables con nada que haya sido regulado antes. No es lo mismo tener un robot programado para ejecutar órdenes que un robot programado para aprender, y no es lo mismo tener un robot adiestrado que un robot que aprende y decide por sí mismo. El punto clave de mañana va a ser ordenar "los ilícitos del aprendizaje autónomo" y delimitar la participación de cada agente para poder considerarlo (o no) actor en los resultados: propiedad intelectual/industrial, desarrollo de hardware/software, adiestramiento y/o capacidad de autorreflexión. ¿La culpa es del robot? Considero que con la actual configuración del derecho no va a ser fácil tomar una decisión justa, porque es un hecho que valores emocionales o reglas de comportamiento puramente humanas pueden ser desarrollados por medio de algoritmos y permitir a un robot asumir comportamientos ?observados? sin necesidad de intervención humana ("Microsoft frena un experimento de inteligencia artificial tras volverse xenófobo en las redes").

Cuando Alan Winfield, del Laboratorio de Robótica de Bristol, sometía a los robots a experimentos en los que les hacía elegir entre salvar la vida de un ser humano u otro, en una situación igualmente peligrosa para ambos, el robot se quedaba "bloqueado", y la pregunta más lógica sería qué criterio debió seguir para ejecutar la decisión éticamente más correcta, y quién lo decidió. Pero estamos hablando de que hay que ir un paso más allá y valorar si el robot pudo decidir con base en algo que aprendió de forma autónoma, y una vez hecha la elección, si no fuera la correcta, ver si procedería adoptar un sistema legal culpabilístico o un sistema objetivo, si la responsabilidad será única o en cascada, solidaria o mancomunada, si cabrá la imprudencia, la negligencia o la temeridad, etc.

¿Imaginaba Asimov casi 80 años después un Parlamento Europeo se plantearía elaborar leyes de la robótica para regular su relación con la sociedad?

Y qué pasará con las exenciones de responsabilidad ¿existió "propósito de cometer el delito o hubiera previsto o debido prever su comisión", "pudo comprender la ilicitud del hecho o actuar conforme a esa comprensión"? Es posible que haya que redefinir primero el concepto jurídico ?conciencia de la realidad? para los robots, no lo sé, pero ya me estoy imaginando un sistema sancionador especial que les imponga tareas en beneficio de la comunidad para la reeducación o reinserción de estos carísimos juguetes, sanciones de "desconexión temporal", o penas de "chatarra" para los peores casos. Y ojo, porque también tendremos que considerar que, según el Parlamento Europeo, estará "prohibido crear vínculos emocionales con ellos"... todo un reto

Artículo de Ofelia Tejerina en Bez.es


pdfprintpmail