martes, 23 de junio de 2015

El dilema ético y legal de los algoritmos explicado a través del coche conectado



Escribo este post después de leer un artículo que condensa las conversaciones que todos los abogados que nos dedicamos al mundo de las nuevas tecnologías comentamos cada vez que sale la ocasión: los coches conectados y la responsabilidad en el caso de accidentes. 

La responsabilidad civil es un campo del derecho apasionante. En realidad todo se reduce a establecer lo que llamamos un “nexo causal” e tal manera que sepamos quién fue el responsable (y en qué medida) de que se produjera el daño. El caso es que esto que puede parecer muy sencillo no siempre es fácil. Imaginemos un accidente de coche en el que hemos alquilado un coche con el que hemos tenido un accidente: nos hemos chocado contra otro coche. ¿Quién es el responsable? La pregunta es importante porque el responsable es el que paga. ¿Es responsable el conductor? ¿El conductor de delante por frenar bruscamente? ¿O la casa de alquiler de coches porque nos ha dado un coche con las ruedas en mal estado que no ha frenado bien porque estaba lloviendo? No es tan sencillo definir qué es lo que realmente ha causado el accidente y/o en qué medida ha influido. 

Pensemos ahora en los coches conectados sin conductor. El conductor va dentro y ha pagado el coche pero ¿de quién es la culpa si hay un accidente? No hay nada para que se hable de un tema como que haya pasta de por medio y aquí las aseguradoras se juegan mucha pasta

Lo que viene a plantear el artículo es que un coche programado para conducirse sólo tendrá que tomar decisiones. ¿Quién se hace responsable de esas decisiones? El título de artículo al que me refiero ejemplifica claramente de qué estamos hablando “¿Debería tu coche autónomo matarte si así salva la vida de más personas?”

Vamos a poner las cartas sobre la mesa: esto se trata de los algoritmos definirás las decisiones (y las consecuencias) ante eventos que antes eran aleatorios o que se decidían de manera instintiva. Vamos que es muy probable que en el futuro tengamos que cambiar la expresión “he tenido un accidente” por “el algoritmo de conflictos de mi coche se activó”. 

¿Quién decide cómo configurar el algoritmo de toma de decisiones? ¿El legislador? ¿El fabricante del coche? ¿El conductor? Y esa configuración ¿qué límites tiene? ¿Quién define qué margen de configuración tiene un conductor? Debemos reconocer que existen infinidad de variables. No las voy a enunciar porque están en el artículo pero si debemos tener claro que tenemos ante nosotros infinidad de retos:


  • Los Gobiernos: es muy posible que algunas leyes requieran adaptarse a un mundo basado en datos pero hay muchos principios básicos que ya existen, lo que es necesario es dotar a los organismos de control con personal y medios para auditar algoritmos.
  • Las empresas: los programas de desarrollo de nuevos productos deben valorar el impacto en compliance de los algoritmos que se desarrollan y, por tanto, establecer los controles internos adecuados
  • Los ciudadanos: no sólo está en su mano configurar un dispositivo si no elegir si comprarlo/usarlo o no y, sobretodo, ser exigente con las empresas que los ponen en el mercado. 


La realidad es que en el futuro no quedará más remedio que trabajar en grupos multidisciplinares en los que, además, todos sepamos un poquito de algoritmos. De hecho, y ya termino, tengo una cosa clarísima: el futuro es de quién controle los algoritmos. Los programas de educación deben fortalecer la enseñanza de las matemáticas y la filosofía si queremos que el futuro esté en manos de personas realmente preparadas para ello.

No hay comentarios:

Publicar un comentario