La semana pasada compartí este vídeo donde podéis ver «dobles» humanos bastante realistas, pero con un toque de rareza que revela su artificialidad. También mencioné el valle inquietante. El concepto de valle inquietante es relativamente nuevo, lo acuñó el profesor experto en robótica Masahiro Mori para expresar el rechazo que provoca un androide, un ser antropomórfico, cuando se parece demasiado a un humano. Ese «valle» es el punto mínimo de una curva que mide la reacción de las personas al aspecto de un robot.

Cuando la apariencia de un robot está alejada del humano o incluso empieza a ser humanoide (recordemos a C3PO de la Guerra de las galaxias), nuestra respuesta emocional es positiva. Si el robot se acerca más a lo humano, hay un umbral a partir del cual provoca un fuerte rechazo, el mismo que provoca un muerto. Este asco o aversión es mayor si además el robot está en movimiento. Pasado otro umbral, la cercanía del humanoide al aspecto humano es ya tanta que se le valora con los criterios con los que se juzga a otro humano, dejando atrás esa reacción de rechazo. En otras palabras, cuanto menos, y no más, se parezca el avatar o robot a un humano, menos rechazo provoca.
Podemos asociar el «valle inquietante» a «lo siniestro» freudiano. Freud se preguntó qué es aquello que nos da miedo. La respuesta fácil es «lo desconocido», lo no familiar. Sin embargo, también nos pueden dar miedo cosas familiares: los muñecos, la televisión, los payasos, un rincón oscuro… Como bien explica este vídeo de la Oregon State University, los miedos que pudimos tener en nuestra infancia siguen ahí, como sigue el estado del yo Niño, y se revelan en cualquier momento, por ejemplo, cuando un androide parece mirarnos.
Podemos encontrar grandes ejemplos de lo siniestro en los autómatas del siglo XIX que recogen las obras del Romanticismo alemán. El ejemplo que quiero traer, gracias al profesor Arno Gimber, es la obra de E.T.A. Hoffmann, El hombre de arena (Der Sandmann), en la que se basa el ballet Coppelia. En la obra, Nathanaël se enamora de Olimpia, una autómata que parece tan real que él no se da cuenta de que no lo es. Cuando descubre la realidad, se vuelve loco y finalmente muere. Son los ojos (die Augen) lo más siniestro de cualquier autómata, algo a lo que se recurre durante las descripciones de Olimpia. Y son precisamente los ojos lo que delata a un autómata o a un avatar casi humano: a pesar de que pestañean y parecen mirarte, los modernos robots o los personajes creados con inteligencia artificial tienen «algo siniestro» en sus ojos. Como explicó Chema Alonso recientemente en Horizonte, los ojos falsos reflejan siempre el mismo tipo de luz, el reflejo no cambia al moverlos como sí ocurre en una persona real. Esto se percibe inconscientemente y «algo no cuadra». También ocurre que los avatares humanoides tienen facciones simétricas, a diferencia de las caras humanas. Y esto también provoca esa sensación inquietante.
Una barba demasiado azul
La sensación inquietante e incómoda que nos provoca el autómata, el robot, la inteligencia artificial, es la misma que históricamente nos ha provocado una persona extraña. Cuando hay un elemento discordante, la reacción primera de rechazo se cubre con otra cultural, aprendida, de disimulo. Pero en el cuerpo ya se ha dado la emoción de asco o aversión. Clarissa Pinkola Estés incorpora está reacción en su análisis del cuento de Barba azul. En él, muestra las consecuencias de no escuchar la primera reacción: ¿acaso no es extraño que una persona tenga una barba azul? Si en nuestro aprendizaje de niños se nos enseñó a no estar alerta ante figuras peligrosas, e incluso se nos enseñó a respetarlas y a verlas «bonitas», es muy posible que de adultos no sepamos reconocer el peligro potencial.
En el caso de los robots, la barba «demasiado azul» se evita alejándose del modelo antropomorfo, o acercándose tanto a él que resulte casi indistinguible. Esto no solo aplica a rostros humanos, también a voces generadas por inteligencia artificial. Por ejemplo, se hizo viral una voz generada por ordenador por Eleven Labs que leía El gran Gatsby igual que un locutor profesional, con todas las inflexiones de voz esperables. Según cuenta David Mattin, esta herramienta se utilizó para que la voz de Emma Watson leyera el Mein Kampf, lo que hizo que se limitara su uso libre solo 3 días después de su lanzamiento y se entrase de nuevo en el debate de lo ético de la inteligencia artificial.
Estamos viviendo un momento único de avance tecnológico. Por el lado positivo, la cantidad de nuevas posibilidades que ofrece la IA va a suponer un cambio de las reglas del juego. Por el lado negativo, los sesgos y problemas éticos crecen a la par que las aplicaciones de IA. Afortunadamente, las alarmas sobre las cuestiones éticas de la IA han saltado a tiempo y se espera controlar estas herramientas. Mientras, nos toca a los seres humanos identificar la aversión que nos provocan estos aparentes «muertos vivientes» y quizá convivir con ella, o bien decidir alejarnos del modelo antropomorfo e inventar robots e inteligencias diferentes.