Los límites éticos de la IA

Venimos hablando de la inteligencia artificial porque es «el tema». Cada día, encuentro nuevas referencias a la IA, nuevos descubrimientos, funcionamientos más inteligentes. Por ejemplo, observa este vídeo:

Vídeo de inteligencia artificial realizado con https://studio.d-id.com/.

Desde luego, se puede seguir afinando, pero es suficientemente correcto. Quizá tan correcto que entra de lleno en el valle inquietante, del que hablaremos otro día. Tenemos al alcance de la mano la generación de vídeos sin contar con la colaboración de un montón de profesionales que hasta ahora eran necesarios. Es el fin de una época.

Por ejemplo, hace pocos días, Chema Alonso (director digital de Telefónica) publicaba este post donde explica cómo crear un modelo de Stable Diffusion para que te haga selfies en MyPublicInbox. En otras palabras, para que, a partir de 20 imágenes de una persona, se puedan crear vídeos en movimiento y generar cientos de imágenes en todos los estilos.

También hace pocos días, David Mattin, que publica semanalmente la newsletter New World Same Humans, comentaba que Getty Images se había querellado contra Stable Diffusion por entrenar a su inteligencia artificial con su banco de imágenes. La empresa se defiende diciendo que ese entrenamiento no viola ninguna propiedad intelectual, por la forma en la que aprenden las máquinas (aprendizaje profundo). Pero hay más casos de artistas que se quejan de que una inteligencia artificial se haya alimentado con su obra.

El aprendizaje profundo o deep learning es lo que permite a las IA aprender a partir de una fuente de datos. Con el surgimiento del big data (datos masivos) se facilita enormemente la tarea de «entrenar» a un algoritmo para sistematizar un proceso.

Un ejemplo de este aprendizaje es el reconocimiento de imágenes. En 2012, AlexNet alcanzó una tasa de error del 15.3 %. Pues bien, solo 3 años después, se bajó a una tasa de error del 5 %, que es la del ser humano. Por baja que sea esta tasa, hay fallos imperdonables. Fue bastante sonado el error en 2015 de confundir imágenes de personas de raza negra con gorilas. De nuevo topamos con límites éticos. ¿Dónde están los límites éticos y jurídicos?

Un poco de historia

En el número 47 de la revista Harvard Deusto hay un dossier sobre inteligencia artificial. En él podemos leer sobre sus antecedentes. Por ejemplo, Esteve Almirall, profesor en Esade, marca una posible fecha de inicio de la IA: el 11 de mayo de 1977. Ese día, el ordenador Deep Blue, de IBM, venció a Kaspárov al ajedrez. En años sucesivos, distintas IA vencieron a los campeones de juegos como Jeopardy! o Go.

Ya recientemente, surgieron los coches autoconducidos de Tesla, donde surgen grandes cuestiones éticas. En ciertas circunstancias de la conducción, un coche autónomo puede tener que decidir entre la vida de sus pasajeros o la vida de los transeúntes que cruzan. ¿Cuál es la decisión correcta? Depende de muchos factores. En una persona, el impulso siempre será inconsciente, animal. Si bien se alimenta a la IA con modelos probabilísticos, la reacción final varía según la situación. Además, ¿quién sería el responsable de este accidente?

El cine ha mostrado magistralmente las implicaciones de que una inteligencia artificial se escape al control humano. Cómo no recordar a HAL 9000, ese robot que controla la nave en 2001: una odisea del espacio. Hay muchos otros ejemplos. En Robocop, antes de crear al robot cibernético se presenta en una reunión un robot que controla la delincuencia en las calles. En esta presentación, se pide a uno de los asistentes que amenace al robot con un arma. Entonces, pide: «Tire el arma al suelo, tiene 20 segundos para obedecer». La persona tira el arma, pero el robot no lo percibe, y continúa la cuenta atrás: «¡Tiene 15 segundos!». Mejor verlo:

Límites éticos de la IA

Como hemos visto, en distintos campos encontramos esos límites éticos que se plantean en la expansión explosiva e imparable de la inteligencia artificial.

El World Economic Forum identificó en 2016 una serie de conflictos éticos del cambio tecnológico, que son los que más o menos preocupan al ciudadano: cómo afecta al empleo, quién se beneficia del valor añadido producido por la IA, cómo interactuamos con las máquinas y, sobre todo, cómo evitamos los errores y el sesgo de la IA.

David Mattin apunta a la necesidad de que otra IA supervise los límites de la IA, que sea un proceso entre máquinas. Pero estoy de acuerdo con lo que comenta Josep Valor en la revista Harvard Deusto:

La responsabilidad última siempre tiene que recaer en un humano [o en una corporación, añado].

Josep Valor

Para comprender los sesgos y errores de la IA, hay que recordar que los algoritmos los crean personas (por ahora) y que las bases de datos de las que se alimenta son también humanas (obras humanas, resultados de conductas humanas, decisiones humanas, etc.). El carácter de injusticia que tiene la historia entra de lleno en estos datos. Corregir esa injusticia no es fácil. Hoy día, los anuncios de IA que vemos al navegar por Internet, siguen dependiendo de nuestro sexo y raza, según estudios como el de Latanya Sweeney, una profesora de Harvard.

Los sesgos se perpetúan en las IA entrenadas para seleccionar personal. Según comenta Konstantina Valogianni, profesora en IE Business School, el algoritmo de Amazon para selección de personal tuvo que ser suspendido porque «aprendió inadvertidamente a excluir las solicitudes de mujeres».


Pensemos sobre esto: una herramienta muy novedosa, inquietantemente eficiente, de pronto se basa en datos que son muy antiguos, injustos. Esto me trae a la mente la escena en la que se levantan las tumbas del cementerio indio en Poltergeist: por muy nuevas que sean las casas construidas, descansan sobre un suelo lleno de muertos, y la paz de sus almas se perturba. La IA viene a enfrentarnos a nuestros muertos, a esas injusticias que pensábamos que habían quedado atrás.

Anuncio publicitario

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s