Como bien sabemos todos los que tenemos cierto interés en este sector, la robótica representa uno de los grandes progresos tecnológicos del S.XXI. No obstante, para que este avance se realice con garantías debe ir acompañado de un marco normativo transparente y dinámico que unifique y clarifique todas aquellas incertidumbres que la robótica genera. Sin embargo, nos encontramos con que hoy día no existe un marco normativo de estas características ni a nivel nacional, ni europeo o internacional.
No obstante, sí hay dos referencias que vale la pena tener en cuenta.
En primer lugar, la recomendación del Parlamento Europeo [1] para el establecimiento de una serie de normas en materia de responsabilidad. Al encontrarnos ante una posible “nueva revolución industrial” en la que la sociedad se ve abocada a una era de robots, bots, androides y otras formas de IA más avanzadas, resulta imprescindible que el legislador tenga en consideración las consecuencias que pueden originar el uso e implantación de dichos aparatos en nuestra vida cotidiana.
También, partiendo de la base de que no existe regulación alguna para este nicho de mercado, hemos de mencionar la norma ISO 13482, restringida al ámbito de los robots de cuidado personal. No obstante, este estándar no regula ningún tipo de responsabilidad, ni plantea cuestiones sobre el impacto que puede implicar en los derechos fundamentales el uso de los robots de cuidado personal.
Ahora bien, aunque no exista normativa ni en Europa ni en EEUU que regule la responsabilidad jurídica en el caso de error, mal funcionamiento, etc., del robot, siempre deberá existir un responsable de los actos o lesiones que pueda ocasionar éste con motivo de sus actuaciones. De ahí, que cuando se produzca un fallo o error, regirá la misma normativa que existe para otros productos defectuosos. Es decir: será de aplicación la normativa que establece la responsabilidad del fabricante [2].
No obstante, el problema lo encontramos cuando un fabricante lanza un producto cuyo software y programación lo ha llevado a cabo un tercero. En este ámbito, es preciso determinar hasta dónde llega la responsabilidad del fabricante. Si se le exige que el dispositivo desempeñe las tareas para las que ha sido creado con total certidumbre (es decir, que el robot funcione a la perfección y no implique ningún riesgo para la sociedad), se estará desincentivando el progreso tecnológico por exigir unos resultados demasiado precisos y restrictivos sin permitir un cierto margen de error y, por ende, la innovación se verá mermada. Por ello, haciéndonos eco de las palabras de Bertolini necesitamos “reglas alternativas que no castiguen tanto al productor del dispositivo” [3].
Como vemos, la respuesta jurídica ante controversias acaecidas con motivo de las tareas realizadas por un robot “inteligente” no es tan fácil y directa como con los robots “monofunción” puesto que, aunque apliquemos la Ley General para la Defensa de los Consumidores y Usuarios, los robots “inteligentes” probablemente puedan ser personalizados por el usuario con funciones y aplicaciones que a priori no estaban incluidas en el software del robot. Así, dicha personalización hará más complicado determinar la responsabilidad en el supuesto de fallo o error del robot, al ser más difícil identificar el elemento que ocasionó el mal funcionamiento.
Del mismo modo (y aunque a día de hoy no sea viable o próximo), llegará un día en el que los robots puedan aprender del entorno donde están inmersos, interactuar con éste y tomar decisiones no previstas en su configuración inicial; esto es lo que ha venido a llamarse la “teoría de las propiedades emergentes”. En este caso, sería todavía más complejo delimitar la responsabilidad, lo que está llevando a plantear si se debería limitar esa posibilidad de aprendizaje a través de algoritmos inteligentes y, ceñir el funcionamiento únicamente a las tareas o funciones diseñadas en origen, opción conocida como “code as law” o “regulation by design”.
Bajo mi punto de vista, si por prudencia delimitamos las capacidades que puedan tener los robots en el futuro y optamos por la regulación desde el diseño (no confundir con privacidad desde el diseño) estaremos restringiendo la evolución tecnológica y abocando, quizá, a la robótica a un futuro demasiado conservador que nos privará de muchos de los avances que están por llegar.
Referencias
- [1] Proyecto de Informe con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica, 2015/2103 INL.
- [2] SÁNCHEZ, C., “Autómatas y ciborgs, territorio sin ley: ¿Quién paga si un robot comete un delito?”, El Diario.es, Hoja de Router, 2015
- [3] SÁNCHEZ DEL CAMPO REDONET, A., “¿Qué ocurre cuando un robot causa daños?“, Replicante Legal, 2016.