Los robots no bailan flamenco

Nos estamos ocupando en identificar aquellos trabajos que puede muy pronto (ya) hacer la inteligencia artificial. Con el reciente lanzamiento de ChatGPT 4, llega incluso más lejos. Me parece más importante identificar aquellos trabajos que nunca vamos a querer que haga una IA o un robot. Ya se apuntaba a esto en la segunda parte del vídeo «Mi empleo, mi futuro» que os compartí y reproduzco aquí:

#MiEmpleoMiFuturo 2, un documental de COTEC.

El resumen es: todo aquello que se puede sistematizar de alguna manera lo puede hacer un robot. Y añado: será aquello en lo que no nos importa demasiado ver a un robot o dejar de ver a una persona.

Cantiñas

Hace poco tuve la suerte de asistir a una conferencia de cante, una especie de clase magistral sobre las cantiñas, un palo del flamenco, en la escuela de flamenco de Amelia Vega. Cantaor: Israel Paz. Guitarra: José Arenas. Percusión: Antonio Maya. Bailaora: Amelia Vega. La idea era estudiar en profundidad qué son las cantiñas, cuáles son sus tipos y melodías y cómo distinguir una cantiña de una alegría y otros palos.

Resulta que el flamenco se origina con los cantes sin guitarra. La guitarra se añade después y solo más adelante se le añade el baile. Así, si en un principio la guitarra se adapta a la voz y la acompaña, hoy día el baile toma protagonismo y determina cómo son la guitarra y la voz, obligando al cantaor a adaptar su voz cortándola donde conviene.

¿Dónde viene escrito qué es la cantiña y cómo se distingue? ¿En qué partitura puede un guitarrista inspirarse para tocar como José Arenas o emular a su padre Antonio Arenas? La respuesta es: no existe ese material. No hay ninguna fuente, ni por escrito ni grabada, de la que un guitarrista pueda beber. Las fuentes de transmisión del flamenco son eminentemente orales y por imitación: José Arenas preguntaba a su padre por qué esto o lo otro, su padre decía, simplemente:

El flamenco es así.

Posible frase de Antonio Arenas.

Si se quisieran anotar en una partitura las variaciones y formas de «hacer cantar a la guitarra», la partitura quedaría ilegible. Es más, no hay un lenguaje con el que reflejar estas variaciones. De manera que, si llega una melodía a un guitarrista de academia, de conservatorio, tocará la guitarra como… un robot. Será correcto, dará las notas, pero no tendrá los matices que se han destilado de un aprendizaje oral, experiencial y por imitación. Ya os digo que no suena ni parecido.

En el post anterior os decía que nadie pagaría por ver actuar a robots. Quizá, como dice un asiduo lector de este blog, la gente muy joven ahora lo vea como algo normal y sí le den valor. Un robot podría ejecutar una partitura a la perfección. Yo particularmente le daría valor cero. ¿Un robot podría aprender escuchando horas y horas tocar a José Arenas, para luego desviarse de la partitura aquí y allá cuando «la situación lo pidiera»? ¿Puede un robot improvisar?

Vaya cuadro hemos pintado aquí DALL.E y yo con esta petición: «Un androide bailando flamenco, otro androide sentado tocando la guitarra y un tercero cantando.»

Desautomatización

Hay un resquicio de esperanza entonces en especializarse en lo que no se puede automatizar: todo lo que puede hacer un robot lo acabará haciendo mejor que un humano. Por supuesto, es mucho más eficiente automatizar tareas. Cada día, llegamos al trabajo y existen una serie de rutinas, pasos, procedimientos. Se trata de llevarlos a cabo en el mismo orden. Es algo que podrá hacerse pronto sin intervención humana, o mucho menor.

Así que veo un camino en desautomatizar nuestras tareas. Hace tiempo, cuando hablaba de la improvisación y el clown, comenté que una persona puede llegar a acomodarse a hacer el ridículo más espantoso. El profesor le dice: «haz que eres una cabra en celo». Y esta situación vergonzante la representa de una manera durante un minuto o dos y a partir de ahí empieza a repetir. Ya se ha acomodado.

Lo contrario de acomodarse es incomodarse, crear en el acto conforme se realiza una actividad. No siempre es posible, quizá solo en esos pequeños matices que damos a nuestras tareas, esos momentos súbitos de improvisación, de tener una idea feliz y cambiar el orden, añadir un rasgo, enriquecer un paso. Quiero pensar que esto no nos lo pueden arrebatar las inteligencias artificiales.

Humanidad

Como vengo apuntando, el otro campo en el que no vamos a querer robots es en los cuidados a una persona. ¿O sí? Hay una serie de tareas que sí están muy sistematizadas, pero en las que nos gusta el trato humano, la calidez. Se trata de la atención al paciente y al cliente.

Cuando nos sale el robot en la enésima llamada a un operador de telefonía, cuando nos toca volver a repetir los mismos pasos que sabemos que no sirven para nada porque luego nos vuelven a preguntar todo, ahí querríamos de verdad que una persona estuviera al otro lado, con su capacidad para la empatía.

Cuando nos ingresan en un hospital y una persona nos pone una vía, estoy convencida de que además nos está aportando tranquilidad. La mirada a los ojos, las neuronas espejo que se activan, una serie de elementos de comunicación no verbal que entran en juego… todo esto no podría ser así con un robot, o sería una situación altamente inquietante.

Cuando necesitamos hablar con una persona experta en la ayuda a otras, como pueda ser un psicólogo, necesitamos no solo de su experiencia sistematizada, no solo de sus conocimientos de las neurosis y las psicosis. Necesitamos de la persona en sí, del humano que se da cuenta de algo en el transcurso de la conversación y propone una vía de solución. ¿Qué vías de solución podría proponer una IA?


Los robots (aún) no bailan flamenco ni se les espera. Busca todo aquello que no se puede sistematizar, que requiere de tus rasgos más humanos y más animales. Aquello será la especialización que la inteligencia artificial y la robótica no te podrán quitar.

Los límites éticos de la IA

Venimos hablando de la inteligencia artificial porque es «el tema». Cada día, encuentro nuevas referencias a la IA, nuevos descubrimientos, funcionamientos más inteligentes. Por ejemplo, observa este vídeo:

Vídeo de inteligencia artificial realizado con https://studio.d-id.com/.

Desde luego, se puede seguir afinando, pero es suficientemente correcto. Quizá tan correcto que entra de lleno en el valle inquietante, del que hablaremos otro día. Tenemos al alcance de la mano la generación de vídeos sin contar con la colaboración de un montón de profesionales que hasta ahora eran necesarios. Es el fin de una época.

Por ejemplo, hace pocos días, Chema Alonso (director digital de Telefónica) publicaba este post donde explica cómo crear un modelo de Stable Diffusion para que te haga selfies en MyPublicInbox. En otras palabras, para que, a partir de 20 imágenes de una persona, se puedan crear vídeos en movimiento y generar cientos de imágenes en todos los estilos.

También hace pocos días, David Mattin, que publica semanalmente la newsletter New World Same Humans, comentaba que Getty Images se había querellado contra Stable Diffusion por entrenar a su inteligencia artificial con su banco de imágenes. La empresa se defiende diciendo que ese entrenamiento no viola ninguna propiedad intelectual, por la forma en la que aprenden las máquinas (aprendizaje profundo). Pero hay más casos de artistas que se quejan de que una inteligencia artificial se haya alimentado con su obra.

El aprendizaje profundo o deep learning es lo que permite a las IA aprender a partir de una fuente de datos. Con el surgimiento del big data (datos masivos) se facilita enormemente la tarea de «entrenar» a un algoritmo para sistematizar un proceso.

Un ejemplo de este aprendizaje es el reconocimiento de imágenes. En 2012, AlexNet alcanzó una tasa de error del 15.3 %. Pues bien, solo 3 años después, se bajó a una tasa de error del 5 %, que es la del ser humano. Por baja que sea esta tasa, hay fallos imperdonables. Fue bastante sonado el error en 2015 de confundir imágenes de personas de raza negra con gorilas. De nuevo topamos con límites éticos. ¿Dónde están los límites éticos y jurídicos?

Un poco de historia

En el número 47 de la revista Harvard Deusto hay un dossier sobre inteligencia artificial. En él podemos leer sobre sus antecedentes. Por ejemplo, Esteve Almirall, profesor en Esade, marca una posible fecha de inicio de la IA: el 11 de mayo de 1977. Ese día, el ordenador Deep Blue, de IBM, venció a Kaspárov al ajedrez. En años sucesivos, distintas IA vencieron a los campeones de juegos como Jeopardy! o Go.

Ya recientemente, surgieron los coches autoconducidos de Tesla, donde surgen grandes cuestiones éticas. En ciertas circunstancias de la conducción, un coche autónomo puede tener que decidir entre la vida de sus pasajeros o la vida de los transeúntes que cruzan. ¿Cuál es la decisión correcta? Depende de muchos factores. En una persona, el impulso siempre será inconsciente, animal. Si bien se alimenta a la IA con modelos probabilísticos, la reacción final varía según la situación. Además, ¿quién sería el responsable de este accidente?

El cine ha mostrado magistralmente las implicaciones de que una inteligencia artificial se escape al control humano. Cómo no recordar a HAL 9000, ese robot que controla la nave en 2001: una odisea del espacio. Hay muchos otros ejemplos. En Robocop, antes de crear al robot cibernético se presenta en una reunión un robot que controla la delincuencia en las calles. En esta presentación, se pide a uno de los asistentes que amenace al robot con un arma. Entonces, pide: «Tire el arma al suelo, tiene 20 segundos para obedecer». La persona tira el arma, pero el robot no lo percibe, y continúa la cuenta atrás: «¡Tiene 15 segundos!». Mejor verlo:

Límites éticos de la IA

Como hemos visto, en distintos campos encontramos esos límites éticos que se plantean en la expansión explosiva e imparable de la inteligencia artificial.

El World Economic Forum identificó en 2016 una serie de conflictos éticos del cambio tecnológico, que son los que más o menos preocupan al ciudadano: cómo afecta al empleo, quién se beneficia del valor añadido producido por la IA, cómo interactuamos con las máquinas y, sobre todo, cómo evitamos los errores y el sesgo de la IA.

David Mattin apunta a la necesidad de que otra IA supervise los límites de la IA, que sea un proceso entre máquinas. Pero estoy de acuerdo con lo que comenta Josep Valor en la revista Harvard Deusto:

La responsabilidad última siempre tiene que recaer en un humano [o en una corporación, añado].

Josep Valor

Para comprender los sesgos y errores de la IA, hay que recordar que los algoritmos los crean personas (por ahora) y que las bases de datos de las que se alimenta son también humanas (obras humanas, resultados de conductas humanas, decisiones humanas, etc.). El carácter de injusticia que tiene la historia entra de lleno en estos datos. Corregir esa injusticia no es fácil. Hoy día, los anuncios de IA que vemos al navegar por Internet, siguen dependiendo de nuestro sexo y raza, según estudios como el de Latanya Sweeney, una profesora de Harvard.

Los sesgos se perpetúan en las IA entrenadas para seleccionar personal. Según comenta Konstantina Valogianni, profesora en IE Business School, el algoritmo de Amazon para selección de personal tuvo que ser suspendido porque «aprendió inadvertidamente a excluir las solicitudes de mujeres».


Pensemos sobre esto: una herramienta muy novedosa, inquietantemente eficiente, de pronto se basa en datos que son muy antiguos, injustos. Esto me trae a la mente la escena en la que se levantan las tumbas del cementerio indio en Poltergeist: por muy nuevas que sean las casas construidas, descansan sobre un suelo lleno de muertos, y la paz de sus almas se perturba. La IA viene a enfrentarnos a nuestros muertos, a esas injusticias que pensábamos que habían quedado atrás.