Westworld y uno de los grandes dilemas éticos del siglo XXI: ¿es lícito "violar" o "matar" a un robot autoconsciente?
Jonathan Nolan y Lisa Joy, sabiéndolo o sin saberlo, han imaginado un futuro probable. Westworld, que trata de un parque temático lleno de robots, sería como visitar un "teatro mecanizado" si no fuera porque los visitantes pueden comportarse como les plazca con las máquinas que viven en él y que estas son tan parecidas a un humano real que, de hecho, se tornan parcialmente biológicas.
Sin hacer spoilers innecesarios, aunque muchos huéspedes deciden ser "buenos" otros desatan sus peores impulsos en el parque. Como resultado, en la serie terminamos viendo asesinatos, torturas y violaciones a por doquier. Si llegamos a un punto que las IA se conviertan en entes como tal, es decir, máquinas que "sienten", ¿nos deparará un futuro similar?
Los experimentos con inteligencia artificial y robótica han demostrado la velocidad a la que atribuimos sentimientos a las máquinas. Lo hacemos aunque, en realidad, estamos muy lejos de crear algo con sentimientos. La IA de ahora consiste en modelos matemáticos basados en probabilidad, su respuesta va asociada a dicha probabilidad, y no "piensa". Lo sabemos pero, aun así, solemos imaginar a Siri como a una mujer ingeniosa tras la pantalla, por ejemplo.
La problemática de esto es que nos dirigimos a crear exactamente eso: una mujer u hombre real. No es seguro que lo logremos pronto, pero nuestro objetivo es realmente hacerlo todo "lo más humano posible".
A la vista está que, por ejemplo, a la inteligencia artificial la consideramos sorprendente y avanzada precisamente cuando nos engaña y "parece real". Esto fue, al fin y al cabo, lo sorprendente de la llamada de Google Assistant: lo que impresionó tanto fue el hacerse pasar por nosotros con una voz humana y conversar con otra persona sin que esta note que se trata de un robot.
¿Y cuando no haya en realidad diferencias? ¿Dónde está el límite que separa la máquina del hombre? La mayoría diría que es la consciencia. Cuando los robots tengan consciencia no será ético no sentir nada si se rompen.
"La consciencia es la frontera, el punto de inflexión entre lo que es ético y lo que no. Dicho más contundentemente: un organismo se convierte, automáticamente, en sujeto de derecho cuando adquiere consciencia. La razón estriba en que si un ser es capaz de consciencia es capaz de sufrir, y si es capaz de sufrir es obligación moral de todos evitar o, como mínimo no infringirle, sufrimiento", afirma para Xataka Santiago Sánchez-Migallón Jiménez, profesor de Filosofía y colaborador habitual.
En este aspecto, Santiago cree que un mundo como Westworld sería "una atrocidad moral", en tanto que sería un campo de entrenamiento de sádicos que contribuiría a la normalización o banalización de la crueldad: "Un parque de atracciones como el de Westworld sería muy peligroso en este sentido ya que estaríamos diseñando un trampolín hacia lo que la filósofa alemana Hannah Arendt denominaba 'la banalidad del mal'. Matar a robots por mero placer sería una forma de legitimar el hecho de que matar por placer es deseable".
"El psicólogo Leon Festinger acuñó el término disonancia cognitiva para hacer referencia al trastorno que se da cuando nuestras creencias y lo que realmente hacemos no guardan cierta coherencia. Suele darse que, cuando nos encontramos ante esa incoherencia, es más fácil cambiar nuestras creencias que nuestra conducta".
Por ejemplo, si la creencia en que fumar es malo para la salud choca con el hecho de que soy fumador, más fácil que dejar el vicio es buscar razones que debiliten la tesis de que fumar es malo. Así los fumadores argumentan razones como que conocieron a alguien que fumaba dos cajetillas diarias y que vivió más de cien años; o que, total, de algo hay que morirse.
"De la misma manera, si en Westworld una clase social que es referente y ejemplo social como la clase alta 'mata' sin que pase nada, se están dando razones para debilitar la disonancia cognitiva que todo asesino tiene ante realizar un acto tan injustificable como es el asesinato".
Si llega el día que los robots puedan sentir, se dará una situación similar a lo que ocurre con los animales ahora: que necesitaremos protegerlos de quienes se niegan a aceptar que tienen derechos. Sin embargo, cabe recordar que no durante toda nuestra historia atribuimos sentimientos a los animales.
Kant tenía opiniones encontradas, por ejemplo, consideraba que eran solo cosas desprovistas de valores morales. Ahora sabemos que eso de que los animales no sienten no es así pero, a pesar de ello, tenemos "categorías" de animales que está peor torturar.
David Hume hablaba de la empatía como un sentimiento universal, base además de nuestro comportamiento moral. "Como soy capaz de ponerme en el lugar del otro, puedo comprender su dolor y empatizar con él". ¿Cómo puedo reconocer al otro? Sencillamente porque se parece a mí: si tiene mi apariencia, sufrirá como yo. Es por eso que, al igual que empatizamos más con animales más similares a nosotros —nos duele más que maltraten a un chimpancé que a una mosca—, podemos empatizar con máquinas en la medida en que se nos van pareciendo.
De esta forma, cabe la posibilidad de que existan "categorías sociales" dentro de las máquinas. "Podría hablarse de simples sirvientes del hogar, con pocas habilidades cognitivas y poca o nula consciencia, que podrían ser considerados como nuestros animales: se les protege jurídicamente pero no se les otorgan derechos; otros, más inteligentes y, quién sabe si más conscientes de la realidad que nosotros, podrían tener más derechos (acceder prioritariamente a ciertos puestos o cargos) pero, igualmente, más responsabilidades (por ejemplo, si nos imaginamos una IA que controla todo el tráfico de una ciudad, le deberíamos exigir que lo haga muy bien debido al gran desastre que causaría una mala gestión)" añade nuestro filósofo.
"Habrá que regularizarlo porque se convertirán en entes autónomas y por tanto serán capaces de realizar lo mismo que hacemos nosotros. Creo que una máquina es muy difícil que llegue a sentir, pero si lo llega a hacer, habrá que cuidar la crueldad. Y sí, también si llegamos a crear este tipo de entes habrá que limitarlos para que no se revelen", afirma para Xataka Juan Maroñas, investigador en Inteligencia Artificial del Centro de Investigación Pattern Recognition and Human Language Technology, de la Universidad Politécnica de Valencia.
¿Cuando las máquinas adquieran consciencia estaremos moralmente obligados a otorgarles derechos y deberes civiles? En cualquier caso, habría que redefinir muchas categorías jurídicas como confirman nuestros entrevistados. Efectivamente, si otorgas a un ser derechos, automáticamente, también le estás otorgando responsabilidades. Si tenemos el caso de inteligencias artificiales mucho más inteligentes que un humano, su capacidad para hacer el mal será mucho mayor y, en consecuencia, el régimen jurídico que regule su conducta ha de ser diferente. ¿Cómo haremos esto? Difícil pregunta.
El caso es que, como decíamos, no tenemos ni idea de qué es la consciencia —no podemos definirla, verla, mucho menos tocarla—, y los derechos normalmente se han aplicado en correspondencia al nivel de consciencia que nos suscita cada ser. No hay duda de que las plantas "sienten" o "perciben" su exterior: un girasol percibe donde está el sol y se gira hacia él, las raíces de las plantas acuden al sitio donde perciben humedad, etc., y sin embargo, no tienen derechos a la hora de que las pisen porque no podemos probar demasiado bien que lo sientan.
"Lo cierto es que esta perplejidad la llevamos sintiendo los seres humanos al menos desde tiempos de Descartes. En su época no había inteligencia artificial ni robots, naturalmente, pero sí lo que podemos considerar el preludio: los autómatas. Esos inventos llevaron a mucha gente a preguntarse: ¿cómo sé que algo de verdad tiene sentimientos o pensamientos?, ¿cómo sé si tiene conciencia? Fijémonos en que, de hecho, no estamos seguros ni siquiera de que las personas que nos rodean tengan mente: veo su cuerpo, sus actos, sus palabras, puedo incluso abrirles la cabeza y ver su cerebro, pero lo que nunca veré es su conciencia. La única conciencia a la que tengo acceso es la mía", comenta en entrevista para Xataka Miguel Ángel Quintana Paz, director del Departamento de Humanidades de la UEMC, profesor de Ética y Antropología, y autor del libro "Reglas. Un ensayo de introducción a la hermenéutica de manos de Wittgenstein y Sherlock Holmes".
Podemos intuir sentimientos en el cerebro, en ciertas hormonas, en ciertos signos de dolor, podemos medir ciertas ondas cerebrales… pero nada de esto es concluyente:
"Recordemos, por ejemplo, que hay personas inconscientes cuyas ondas cerebrales sin embargo reflejan patrones típicos del dolor: ¿están de veras sufriendo? ¿Sufrimos mientras estamos anestesiados, solo que no nos damos cuenta? ¿Es posible sentir dolor sin 'darse cuenta'?, ¿no implica una cosa necesariamente la otra? Sin embargo, si yo concluyera que soy el único ser consciente de la Tierra y que todos vosotros no sois sino cuerpos que fingís… me tomaríais por loco. Así, todos atribuimos sin dificultad a los demás una conciencia. ¿Por qué? Una buena explicación es la de tipo evolucionista: entender a los demás como seres conscientes nos facilita muchísimo el tratar con ellos. Hoy mucha gente está convencida de que su caniche o su gato siamés no solo piensa y siente, sino que es el ser sobre la Tierra que mejor les comprende. En una sociedad de personas solitarias y débiles como la nuestra, es comprensible esta tendencia. Antropomorfizamos continuamente".
Miguel Ángel comenta que, consiguientemente, cuando se desarrollen robots realistas se les atribuirán "sentimientos" antes siquiera de estar seguros de que los tengan, porque en realidad eso hacemos con todo lo que se nos parece.
Asumiremos amor, compasión, comprensión de nuestros problemas más íntimos... Daremos por sentado que son iguales a nosotros y, por tanto, les atribuyamos derechos muy rápidamente. "Vivimos en una sociedad en que los derechos están baratísimos, ya se le atribuyen a cualquier cosa: no solo a los animales o las plantas, sino incluso al agua, a la Tierra, a Dios, a los entes nacionales… Si estamos repartiendo derechos de modo tan barato por todas partes, a mí mismo me parecería injusto no darles unos cuantos también a los robots. Aunque también, naturalmente, habrá que darse cuenta de que unos derechos tan baratitos no valen de mucho".
"Cuando establecemos como nuestra norma moral máxima el no hacer daño a ningún ser que sienta, en el fondo, estamos siempre dependiendo de qué es lo que vemos y qué es lo que suscita en nosotros compasión. Todo aquello que me suscita un sentimiento de calorcito interior merece ser cuidado, es la máxima de nuestra sociedad emotivista actual. Así pues, imagino que las empresas que fabriquen robots serán listas y se adaptarán a esta ambivalencia. Por una parte crearán robots entrañables, hermosos y achuchables a los que atribuiremos derechos; pero por otro lado, crearán robots con aspecto despreciable, e incluso repugnante, con los que no tendremos demasiados problemas en desfogar nuestra crueldad como hoy se hace con ciertos videojuegos, o como nos muestra la serie Westworld. Es lo bueno del mercado: se adapta a las preferencias (y a la emotividad) del consumidor".
¿Que la vida artificial acabe valiendo menos que la genuinamente biológica es injusto? Probablemente. Pero en nuestra historia los humanos hemos sido injustos muy a menudo: con otras razas, religiones, procedencias y gustos. También los hemos sido, y frecuentemente lo seguimos siendo, con otras especies. A veces no podemos, no queremos —o ambas cosas— ni tan siquiera saber cuándo causamos dolor o sufrimiento.
Según nuestros entrevistados nuestras creaciones podrían ser el siguiente capítulo en nuestro particular dilema moral. Un problema antiguo con un nivel nuevo que pondrá bajo examen nuestra capacidad como especie para reconocer el "sentir" de aquellos que no son exactamente iguales a nosotros. Qué deparará el futuro es difícil de concluir, pero sin duda Westworld dentro de su ficción ha mostrado una teoría, aunque cruel, muy posible.