En un curso de verano sobre Inteligencia y Seguridad en el Ciberespacio, al que acudí la semana pasada, uno de los ponentes (Enrique Ávila, director de INCIBE) habló sobre el conflicto que puede surgir (y surgirá) con los coches autónomos. En caso de tener que escoger entre dos opciones, el resultado de las cuales es siempre negativo para alguien, ¿qué deberían hacer? Ejemplo: a uno de estos coches le fallan los frenos y tiene dos opciones: A) chocarse contra un muro, de tal manera que mueran todos los ocupantes del coche, o B) esquivar el muro invadiendo el carril contrario y atropellando a tres personas. ¿Qué debería hacer? Es lo que se conoce como un dilema social, y el primer planteamiento se hizo en el siglo XIX por parte del economista William Foster Lloyd.
Para contestar a esta pregunta, el MIT desarrolló el año pasado lo que se conoce como la «Moral Machine«. Se trata de un experimento de crowdsourcing que pretende estudiar la ética de las máquinas autónomas: se presentan a la multitud de Internet diferentes escenarios, como el descrito anteriormente, y se debe escoger una opción. ¿Estrellas el coche, haciendo que muera su conductor, o atropellas a un doctor, una mujer y un bebe que cruzan la calle?, ¿atropellas a dos mujers y un hombre haciendo deporte, acompañados de dos médicos, o atropellas a 3 ancianas?

De esta manera, mediante esta iniciativa de crowdsourcing en la que la tarea es escoger la opción menos mala (ya que en la gran mayoría de las ocasiones no hay una solución moralmente idonea, como que se estrellase el coche vacío), el MIT busca dos objetivos. Por un lado obtener una visión general de como consideran las personas que las máquinas deberían decidir ante estos dilemas morales. Por otro lado, a través de una sección de su web, recopilan y discuten posibles escenarios en los que se dén estos dilemas. Vamos, que te permiten crear tu propio dilema personalizado.
A la hora de responder a estos dilemas, existen varios enfoques que se pueden tomar. desde no hacer nada (ya que si realmente no estuvieras en la situación, seguiría muriendo alguien y no sería tu culpa), hasta tener una visión puramente utilitarista, en la que las decisiones correctas son las que proporcionan más felicidad a un número más elevado de personas (las menos malas).
El experimento de crowdsourcing es curioso, desde mi punto de vista, por dos razones.
En primer lugar, ponerte ante una situación en la que sabes que no hay una solución correcta, te permite darte cuenta de lo complicado que es diseñar el comportamiento de un dispositivo autónomo que puede afectar a la seguridad de las personas.
Obviamente, cada persona que haga este experimento tendrá seguro criterios diferentes y dará respuestas diferentes ante las mismas situaciones. Por lo tanto, este experimento sirve, como dicen, para saber la opinión de las personas de manera global. Pero en ningún caso puede ser la base para programar un dispositivo de este tipo, incluso en aquellas situaciones en las que haya un consenso generalizado: la multitud también se equivoca. Yo tengo muy claro qué escogería entre un gato o una persona por motivos antropológicos… pero la multitud podría decidir otra cosa distinta.
La multitud es capaz de descubrir soluciones a problemas complicados, aportar ideas innovadoras, etc. Pero no se puede utilizar su criterio para cuestiones morales. La moral, si una cosa es correcta o no, como he dicho antes, no debe ni puede depender del consenso general.
En este sentido, en el experimento nunca se dice que los resultados se vayan a utilizar para programar un dispositivo autónomo. Sólo dejan caer una pregunta en la encuesta final: «¿Crees que tus respuestas serán utilizadas para enseñar a máquinas inteligentes?». Yo espero que no.