30-06-2018
Solo en los últimos dos meses Waymo, la division de Google que desarrolla autos que no requieren de conducción humana, anunció una inversion superior a los mil millones de dólares para adquirir más de 80.000 automóviles que le permitirán multiplicar en los próximos dos años su flota actual de 600 unidades a una más de cien veces mayor. Esta transacción termina de confirmar que la revolución de contar con autos plenamente autónomos está finalmente a la vuelta de la esquina. Esta es una excelente noticia, dado que la adopción de esta tecnología permitirá salvar millones de vidas que hoy se pierden por la impericia de la conducción humana.
Dos meses atrás en este espacio escribí sobre los dilemas éticos que esta nueva tecnología plantea: “Si por una situación imprevista, digamos la rotura inesperada de un neumático, el «cerebro» del auto determina que una colisión es inevitable, el auto deberá «elegir» qué accidente es preferible. En otras palabras, para poder circular los autos autónomos deberán tener un algoritmo que les proporcione una ética, una manera de definir este tipo de conflictos morales.”
Quizás el aspecto más delicado de la decisión sea qué valor dar en el “cálculo” a la vida del dueño del auto. ¿Debe el auto comportarse “egoístamente” y proteger la vida de su dueño por encima de las vidas de los otros implicados en el accidente? ¿O debe el auto ser “altruista” y salvar el mayor número de vidas posible, aún si ello ocasionalmente implica condenar a muerte al propietario?
El “dilema del prisionero” es una situación hipotética muy utilizada en lógica y en economía para mostrar que, contrariamente a la idea de la “mano invisible” de Adam Smith, la persecución irrestricta de los intereses individuales frecuentemente conspira contra la obtención del bien común, u óptimo colectivo. El dilema está diseñado de modo tal que la situación ideal sería que ambos prisioneros cooperen y reciban una pena abreviada, pero los incentivos analizados desde el punto de vista individual llevan a cada uno de ellos a decidir lo contrario y terminar ambos en el peor de los escenarios.
¡Con la adopción de los autos autónomos parece estar presentándose este escenario, pero ya no de manera hipotética sino bien real! Un estudio realizado por el Media Lab del MIT se propuso analizarlo y los resultados son muy interesantes. En un escenario donde la disyuntiva es entre salvar al dueño del auto o a 10 otras personas, 76% de los entrevistados opina que los autos deberían ser “altruistas”. Esto tiene sentido, dado que a priori no sabemos, cuando se produzca un accidente, de qué lado nos tocará estar. Podemos ser los dueños del auto que causa la colisión, pero también el desafortunado ocupante de otro vehículo o un peatón parado en el lugar inoportuno en el momento incorrecto. Salvar a la mayor cantidad de gente posible, sean quienes sean, maximiza nuestra propia chance de sobrevivir. El resultado cambia completamente cuando la pregunta es si comprarías un auto autónomo con ética “altruista”. Ubicados ahora en ese lugar específico, la mayoría de las personas se rehusarían a cómprarlo si salvar su propia vida no fuera la prioridad absoluta del auto.
He aquí el “dilema del pasajero egoísta”. Si queremos que las calles del futuro sean más seguras para todos, deberíamos impulsar una ética en nuestros autos autónomos que haría que muy poca gente quiera adquirirlos. Si dejamos que las decisiones individuales primen, aceleraremos la adopción de esta tecnología al precio de una situación peor para todos donde llenemos las calles de autos tan egoístas como sus propietarios.
Santi, es real el dilema? El auto calcula eso, o al igual que como creo que funciona un conductor humano, mide distancia de frenado, capacidad de maniobra, etc. y decide? Lo que intuyo es que no hay una función de cálculo de vidas. Otra pregunta: Si 10 personas se tiran de un puente de la panamericana, y supongamos que sobrevivirían si ningún auto los choca… Y supongamos que si el auto los embiste mueren y si los elude mueren el conductor, pareja e hijos. (Sí, solo 4 vidas) Que debería hacer?
Es interesantisimo el debate que se abre en torno a la ética de la IA. Si el debate por la despenalizacion del aborto nos deja en Argentina con miles de preguntas y redefiniciones conceptuales, este tema va a movilizar al mundo en definiciones que van a tener que ser legisladas inevitablemente.
Ahora bien, en este caso, siendo conductor, creo que debe priorizarse la vida de terceros. El conductor es participe necesario del accidente y no así los peatones. Pero te dejo otro dilema. ¿Qué debiera hacer la IA si el accidente no lo produce el conductor ni es producido en su vehículo? Llamemosle: Otro vehículo te cierra el paso, un camión pierde la carga, etc….