Sin precedentes

El lanzamiento de ChatGPT-4 y de MidJourney v5 dan un salto en la inteligencia artificial sin precedentes. ChatGPT-4 ahora es multimodal. Significa que puede interpretar textos e imágenes. Se ha hecho viral la imagen en la que se ha dibujado con un boli el aspecto de una página web, porque ChatGPT ha creado esa página con código en cuestión de segundos:

El avance es tan loco, que escribir de una semana a otra no acaba de recoger la velocidad exponencial y sin precedentes que lleva esto. Lo último, que Microsoft incorpore en Office 365 ChatGPT-4, tiene unas implicaciones económicas y laborales que le dan la vuelta a todo. En este post cuento mi experiencia al generar contenidos con esta herramienta. También hablo de la versión 5 de MidJourne, la herramienta de inteligencia artificial que hace fotos de una calidad y sofisticación que barren la fotografía tal como la conocemos hasta ahora.

Generación de contenidos

Este título que suena tan abstracto, generación de contenidos, da de comer a muchísimas personas en muchos sectores. Hasta «hace cinco minutos», nuestras redes sociales e internet en general estaban plagados de contenidos generados por redactores de todo tipo. En mi sector, la formación online, el principal trabajo es crear contenido, curar contenido, presentar el contenido de forma pedagógica. Pues todo esto lo hace ChatGPT-4.

Hice la prueba. Había una unidad didáctica de un profesor que estaba de baja, por lo que no podíamos ampliar la información. Le pasé este material a ChatGPT y le pedí un diseño instruccional, es decir, un guion con las instrucciones para crear un curso a partir de una presentación bastante escueta. Lo primero que me pasó fue una estructura completa con todos los puntos necesarios: título del curso, duración, introducción, objetivos pedagógicos, varias secciones, incluida una de práctica, y un apartado de conclusiones. Después le fui pidiendo el desarrollo de cada uno de los puntos. Uno a uno, fue desarrollando cada apartado, yo iba «tomando notas», es decir, copiando lo que me pasaba y pegándolo en un documento. Este único trabajo de copiar y pegar desaparece con la incorporación de ChatGPT a Office: directamente se va a generar el contenido en el formato que queramos, haciendo el proceso todavía más corto, casi instantáneo.

En el apartado de la práctica, me sorprendió porque me presentó el lenguaje de programación para resolver el ejercicio de esta manera:

Imagen con código proporcionada por ChatGPT-4.

Luego recordé que esta herramienta es capaz de generar códigos de páginas web y similares, domina muchos lenguajes de programación e incluso te los puede enseñar como si fueses un niño de 11 años. Es decir:

En resumen: en unos minutos y con distintas preguntas, logré tener un contenido preparado para la formación online. Un contenido perfectamente expresado, sin erratas, con orientación pedagógica. Algo que a cualquiera de mi equipo le habría llevado al menos 2 horas. Y es que este cacharro sabe perfectamente lo que tengo que tener en cuenta para maquetar mi contenido en una de las herramientas de autor habituales, Articulate Rise, y cómo hacer que el alumnado desde casa no se sienta abandonado, sino integrado en un sistema de aprendizaje. Digamos que lo que he aprendido en años y ya puedo destilar en pequeñas píldoras es lo que esta IA me cuenta en cuestión de segundos (y lo aplica a los contenidos que genera, claro):

Hacer fotos sin cámara

La otra gran revolución es la generación de imágenes por inteligencia artificial. En este blog estoy compartiendo imágenes inquietantes generadas por DALL.E-2 y por Lexica Aperture. Pero MidJourney va un paso más allá y genera fotografías de excelente calidad y realismo a partir de textos realmente cortos. Quiero compartir aquí algunos ejemplos que publicó Nick St. Pierre en Twitter recientemente. En este hilo, Nick St. Pierre va comparando el resultado de solicitar una imagen a la versión 4 de MidJourney con respecto a la nueva versión 5. La versión 4 ofrece fotos perfectas, pero con cierto toque inquietante en algunas miradas, mientras que la versión 5 crea fotos perfectas y con un toque de realismo y «sensibilidad» asombroso. Tomemos esta imagen de un mercado:

Imagen de un mercado generada por MidJoruney5, con la sola instrucción: «foto de estilo callejero de un concurrido mercado de la ciudad de Nueva York llena de gente parada junto al mostrador de delicatessen –ar 16:9».

En la imagen que vemos arriba, nada existe. No hay fotógrafo, esas personas no existen, su ropa tampoco, los productos que se ofrecen no están ahí. Es todo generado por una inteligencia artificial.

En esta otra imagen, compara la generación de una mujer en la versión 4 frente a la generación de la versión 5:

Parte del hilo de Nick St. Pierre, donde la petición a la IA es: «foto de estilo callejero de una mujer joven, chaqueta gucci roja, camisa gucci azul, plano general, iluminación natural, soho, filmada en Agfa Vista 200, 4k –ar 16:9».

Simplemente, estoy sin palabras. Estoy totalmente de acuerdo con David Mattin, que en su newsletter 116 comenta que nadie sabe ahora mismo las implicaciones que va a tener todo esto. La adopción es loca, es explosiva, imparable. También comenta lo mismo que comentaba yo la semana pasada: agarrémonos a aquello que nos hace humanos, porque es lo único que nos va a quedar tras este tsunami.

Todo lo demás, cualquier dominio de procedimiento técnico o experiencia, casi todo lo que ahora definimos como «trabajo», está siendo devorado por máquinas. (…) Eso es todo lo que quedará al final de este largo camino que estamos recorriendo con inteligencia artificial: los unos para los otros.

David Mattin

Los robots no bailan flamenco

Nos estamos ocupando en identificar aquellos trabajos que puede muy pronto (ya) hacer la inteligencia artificial. Con el reciente lanzamiento de ChatGPT 4, llega incluso más lejos. Me parece más importante identificar aquellos trabajos que nunca vamos a querer que haga una IA o un robot. Ya se apuntaba a esto en la segunda parte del vídeo «Mi empleo, mi futuro» que os compartí y reproduzco aquí:

#MiEmpleoMiFuturo 2, un documental de COTEC.

El resumen es: todo aquello que se puede sistematizar de alguna manera lo puede hacer un robot. Y añado: será aquello en lo que no nos importa demasiado ver a un robot o dejar de ver a una persona.

Cantiñas

Hace poco tuve la suerte de asistir a una conferencia de cante, una especie de clase magistral sobre las cantiñas, un palo del flamenco, en la escuela de flamenco de Amelia Vega. Cantaor: Israel Paz. Guitarra: José Arenas. Percusión: Antonio Maya. Bailaora: Amelia Vega. La idea era estudiar en profundidad qué son las cantiñas, cuáles son sus tipos y melodías y cómo distinguir una cantiña de una alegría y otros palos.

Resulta que el flamenco se origina con los cantes sin guitarra. La guitarra se añade después y solo más adelante se le añade el baile. Así, si en un principio la guitarra se adapta a la voz y la acompaña, hoy día el baile toma protagonismo y determina cómo son la guitarra y la voz, obligando al cantaor a adaptar su voz cortándola donde conviene.

¿Dónde viene escrito qué es la cantiña y cómo se distingue? ¿En qué partitura puede un guitarrista inspirarse para tocar como José Arenas o emular a su padre Antonio Arenas? La respuesta es: no existe ese material. No hay ninguna fuente, ni por escrito ni grabada, de la que un guitarrista pueda beber. Las fuentes de transmisión del flamenco son eminentemente orales y por imitación: José Arenas preguntaba a su padre por qué esto o lo otro, su padre decía, simplemente:

El flamenco es así.

Posible frase de Antonio Arenas.

Si se quisieran anotar en una partitura las variaciones y formas de «hacer cantar a la guitarra», la partitura quedaría ilegible. Es más, no hay un lenguaje con el que reflejar estas variaciones. De manera que, si llega una melodía a un guitarrista de academia, de conservatorio, tocará la guitarra como… un robot. Será correcto, dará las notas, pero no tendrá los matices que se han destilado de un aprendizaje oral, experiencial y por imitación. Ya os digo que no suena ni parecido.

En el post anterior os decía que nadie pagaría por ver actuar a robots. Quizá, como dice un asiduo lector de este blog, la gente muy joven ahora lo vea como algo normal y sí le den valor. Un robot podría ejecutar una partitura a la perfección. Yo particularmente le daría valor cero. ¿Un robot podría aprender escuchando horas y horas tocar a José Arenas, para luego desviarse de la partitura aquí y allá cuando «la situación lo pidiera»? ¿Puede un robot improvisar?

Vaya cuadro hemos pintado aquí DALL.E y yo con esta petición: «Un androide bailando flamenco, otro androide sentado tocando la guitarra y un tercero cantando.»

Desautomatización

Hay un resquicio de esperanza entonces en especializarse en lo que no se puede automatizar: todo lo que puede hacer un robot lo acabará haciendo mejor que un humano. Por supuesto, es mucho más eficiente automatizar tareas. Cada día, llegamos al trabajo y existen una serie de rutinas, pasos, procedimientos. Se trata de llevarlos a cabo en el mismo orden. Es algo que podrá hacerse pronto sin intervención humana, o mucho menor.

Así que veo un camino en desautomatizar nuestras tareas. Hace tiempo, cuando hablaba de la improvisación y el clown, comenté que una persona puede llegar a acomodarse a hacer el ridículo más espantoso. El profesor le dice: «haz que eres una cabra en celo». Y esta situación vergonzante la representa de una manera durante un minuto o dos y a partir de ahí empieza a repetir. Ya se ha acomodado.

Lo contrario de acomodarse es incomodarse, crear en el acto conforme se realiza una actividad. No siempre es posible, quizá solo en esos pequeños matices que damos a nuestras tareas, esos momentos súbitos de improvisación, de tener una idea feliz y cambiar el orden, añadir un rasgo, enriquecer un paso. Quiero pensar que esto no nos lo pueden arrebatar las inteligencias artificiales.

Humanidad

Como vengo apuntando, el otro campo en el que no vamos a querer robots es en los cuidados a una persona. ¿O sí? Hay una serie de tareas que sí están muy sistematizadas, pero en las que nos gusta el trato humano, la calidez. Se trata de la atención al paciente y al cliente.

Cuando nos sale el robot en la enésima llamada a un operador de telefonía, cuando nos toca volver a repetir los mismos pasos que sabemos que no sirven para nada porque luego nos vuelven a preguntar todo, ahí querríamos de verdad que una persona estuviera al otro lado, con su capacidad para la empatía.

Cuando nos ingresan en un hospital y una persona nos pone una vía, estoy convencida de que además nos está aportando tranquilidad. La mirada a los ojos, las neuronas espejo que se activan, una serie de elementos de comunicación no verbal que entran en juego… todo esto no podría ser así con un robot, o sería una situación altamente inquietante.

Cuando necesitamos hablar con una persona experta en la ayuda a otras, como pueda ser un psicólogo, necesitamos no solo de su experiencia sistematizada, no solo de sus conocimientos de las neurosis y las psicosis. Necesitamos de la persona en sí, del humano que se da cuenta de algo en el transcurso de la conversación y propone una vía de solución. ¿Qué vías de solución podría proponer una IA?


Los robots (aún) no bailan flamenco ni se les espera. Busca todo aquello que no se puede sistematizar, que requiere de tus rasgos más humanos y más animales. Aquello será la especialización que la inteligencia artificial y la robótica no te podrán quitar.

¿Por qué escribir?

O quizá debería preguntarme: ¿para quién escribir? Mi visión del texto escrito es la de un océano en crecimiento exponencial, donde cada obra es tan solo una gota. Para el lector, las gotas son tan parecidas entre sí que ya no puede distinguir qué es bueno, quién es un gran artista de la escritura. Ni puede, ni le interesa; quizá otro texto mucho más coloquial y cercano le da las respuestas que busca.

No hace ni un año que estábamos ya en un mundo en el que cada persona es potencial creadora de contenidos audiovisuales. Ya en ese mundo, el mercado editorial tenía un interés ínfimo en comparación con la gran cantidad de contenidos audiovisuales que se crean día tras día en Internet. Hay grandes autores premiados que no pueden vivir de lo que escriben. En ese contexto, Chuck Palahniuk, en su libro Plantéate esto, viene a decir, citando a Bret Easton Ellis, que ya no es el momento del mundo editorial.

Ahora hemos dado un salto y no nos hemos enterado: del océano de crecimiento exponencial en el que todos consumimos y producimos al océano infinito de generación de contenidos por inteligencia artificial. ¿Qué valor le vamos a dar a una novela escrita por una persona cuando estos modelos de aprendizaje del lenguaje escriben otra similar? ¿Vamos a ser lectores de inteligencias artificiales? ¿Sueñan los robots con ovejas eléctricas?

Esta crisis de sentido de la escritura se ha acentuado y casi parece ridículo imaginarse a una persona en su soledad, en su rincón del escritor, construyendo una gran obra, una gran novela. Es como tratar de hacerse la casa con las propias manos, algo ancestral.

Libros prohibidos

Varias publicaciones de prestigio, como The Economist, siguen dando mucho valor a los libros. Recomiendan listados de libros a los que blogueros y personalidades relevantes de distintos ámbitos dan importancia.

Recientemente, The Economist publicó un boletín de libros prohibidos en distintos países y por distintas razones. Es curioso que, en medio de ese océano de publicaciones indistinguibles, los gobiernos se ocupen de examinar y prohibir libros. No solo los gobiernos, también las universidades. Paremos unos segundos a releer esto: las universidades prohíben libros.

Aquí rescato otra frase de Chuck Palahniuk: es mejor escribir algo que no se puede representar de otra forma. Si una historia se presenta mejor en formato de videojuego, cómic o película, entonces mejor no hacer una novela. En cambio, lo que está censurado en el mundo audiovisual y de las redes, puede escabullirse en el mundo del texto escrito, por los vericuetos. Además, un texto «subversivo» puede ser producido por una persona, pero quizá no tanto por una inteligencia artificial que está programada para evitar (de forma un tanto mojigata) todo tipo de sesgos contra los valores actuales.

Robots quemando libros. La obra es de DALL.E, la instrucción es mía. ¿Habrá instrucciones de una IA a otra? Pronto lo veremos.

Representación en vivo

Esta crisis no afecta a las artes escénicas, esto es, al teatro, los conciertos, bailes, circos (aunque les afecten otros temas). Porque lo que valoramos es lo que ocurre en ese momento, como algo único e irrepetible. Incluso si el texto o la canción estuviera escrito por una IA, no querríamos ver a robots en escena: ¿qué interés tiene que un robot recuerde el texto o lo declame o cante o baile a la perfección? Es al actor o actriz, al cantante, al guitarrista, a quien queremos ver mostrar emociones, sudar, bailar su representación en una escenografía compartida.

Se dice que los actores tienen como herramientas las emociones. Las emociones son físicas. Las emociones, incluso si las pueden emular los robots, son animales, hormonales. Por eso me parece tan ridícula la escena de Her en la que el sistema operativo con voz de mujer tiene un orgasmo. ¿Exactamente cómo se produce eso en un ente sin cuerpo? En Transcendence resuelven el tema físico con unos nanorrobots que se introducen en el cuerpo de otras personas. Es bastante fantasioso, pero está mejor justificado.

Lo atávico

Ahora que los productos audiovisuales pierden aún más valor, que podemos ver y oír a una persona que no existe, que podemos tener como amigo a una IA desarrollada para hacerte compañía, es lo humano, lo corporal, lo primitivo, lo tangible lo que a mí me interesa «consumir».

Tengo que decir que me importa poco si la tilde de solo viene o va: ya prescindí de ella en 2010, cuando se imponía seguir las últimas reglas. El ChatGPT a veces también tiene nostalgia y la pone. Me interesa la vía de escape que cada uno se va a buscar ante un mundo digital «sintético». ¿O nos va a satisfacer, nos va a llenar? ¿Nos veremos hablando con nuestro colega C3PO?

Frente a esa gran amenaza, emerge la sombra de lo contrario, un mundo en el que, por una guerra mundial, o una invasión, o una pandemia, «vayamos hacia atrás en el tiempo» (realmente todo es hacia adelante) y nos encontremos en una especie de Edad Media distópica en la que el hecho de que haya o no haya robots sería lo de menos.

Será muy interesante cualquier escritura sobre lo atávico. Cuando se presenta un mundo inventado y próximo a la Edad Media idealizada, se permite todo en él. Lo vemos en Juego de tronos. Sabemos que el ser humano puede pasar de discutir temas intelectuales tomando una taza de té a torturar y matar despiadadamente. Lo atávico no desaparece por el hecho de apoltronarse en un sillón a «consumir» vídeos de YouTube. Es más, quizá en la sombra, latente, lo atávico está engordando, esperando su momento.

Los límites éticos de la IA

Venimos hablando de la inteligencia artificial porque es «el tema». Cada día, encuentro nuevas referencias a la IA, nuevos descubrimientos, funcionamientos más inteligentes. Por ejemplo, observa este vídeo:

Vídeo de inteligencia artificial realizado con https://studio.d-id.com/.

Desde luego, se puede seguir afinando, pero es suficientemente correcto. Quizá tan correcto que entra de lleno en el valle inquietante, del que hablaremos otro día. Tenemos al alcance de la mano la generación de vídeos sin contar con la colaboración de un montón de profesionales que hasta ahora eran necesarios. Es el fin de una época.

Por ejemplo, hace pocos días, Chema Alonso (director digital de Telefónica) publicaba este post donde explica cómo crear un modelo de Stable Diffusion para que te haga selfies en MyPublicInbox. En otras palabras, para que, a partir de 20 imágenes de una persona, se puedan crear vídeos en movimiento y generar cientos de imágenes en todos los estilos.

También hace pocos días, David Mattin, que publica semanalmente la newsletter New World Same Humans, comentaba que Getty Images se había querellado contra Stable Diffusion por entrenar a su inteligencia artificial con su banco de imágenes. La empresa se defiende diciendo que ese entrenamiento no viola ninguna propiedad intelectual, por la forma en la que aprenden las máquinas (aprendizaje profundo). Pero hay más casos de artistas que se quejan de que una inteligencia artificial se haya alimentado con su obra.

El aprendizaje profundo o deep learning es lo que permite a las IA aprender a partir de una fuente de datos. Con el surgimiento del big data (datos masivos) se facilita enormemente la tarea de «entrenar» a un algoritmo para sistematizar un proceso.

Un ejemplo de este aprendizaje es el reconocimiento de imágenes. En 2012, AlexNet alcanzó una tasa de error del 15.3 %. Pues bien, solo 3 años después, se bajó a una tasa de error del 5 %, que es la del ser humano. Por baja que sea esta tasa, hay fallos imperdonables. Fue bastante sonado el error en 2015 de confundir imágenes de personas de raza negra con gorilas. De nuevo topamos con límites éticos. ¿Dónde están los límites éticos y jurídicos?

Un poco de historia

En el número 47 de la revista Harvard Deusto hay un dossier sobre inteligencia artificial. En él podemos leer sobre sus antecedentes. Por ejemplo, Esteve Almirall, profesor en Esade, marca una posible fecha de inicio de la IA: el 11 de mayo de 1977. Ese día, el ordenador Deep Blue, de IBM, venció a Kaspárov al ajedrez. En años sucesivos, distintas IA vencieron a los campeones de juegos como Jeopardy! o Go.

Ya recientemente, surgieron los coches autoconducidos de Tesla, donde surgen grandes cuestiones éticas. En ciertas circunstancias de la conducción, un coche autónomo puede tener que decidir entre la vida de sus pasajeros o la vida de los transeúntes que cruzan. ¿Cuál es la decisión correcta? Depende de muchos factores. En una persona, el impulso siempre será inconsciente, animal. Si bien se alimenta a la IA con modelos probabilísticos, la reacción final varía según la situación. Además, ¿quién sería el responsable de este accidente?

El cine ha mostrado magistralmente las implicaciones de que una inteligencia artificial se escape al control humano. Cómo no recordar a HAL 9000, ese robot que controla la nave en 2001: una odisea del espacio. Hay muchos otros ejemplos. En Robocop, antes de crear al robot cibernético se presenta en una reunión un robot que controla la delincuencia en las calles. En esta presentación, se pide a uno de los asistentes que amenace al robot con un arma. Entonces, pide: «Tire el arma al suelo, tiene 20 segundos para obedecer». La persona tira el arma, pero el robot no lo percibe, y continúa la cuenta atrás: «¡Tiene 15 segundos!». Mejor verlo:

Límites éticos de la IA

Como hemos visto, en distintos campos encontramos esos límites éticos que se plantean en la expansión explosiva e imparable de la inteligencia artificial.

El World Economic Forum identificó en 2016 una serie de conflictos éticos del cambio tecnológico, que son los que más o menos preocupan al ciudadano: cómo afecta al empleo, quién se beneficia del valor añadido producido por la IA, cómo interactuamos con las máquinas y, sobre todo, cómo evitamos los errores y el sesgo de la IA.

David Mattin apunta a la necesidad de que otra IA supervise los límites de la IA, que sea un proceso entre máquinas. Pero estoy de acuerdo con lo que comenta Josep Valor en la revista Harvard Deusto:

La responsabilidad última siempre tiene que recaer en un humano [o en una corporación, añado].

Josep Valor

Para comprender los sesgos y errores de la IA, hay que recordar que los algoritmos los crean personas (por ahora) y que las bases de datos de las que se alimenta son también humanas (obras humanas, resultados de conductas humanas, decisiones humanas, etc.). El carácter de injusticia que tiene la historia entra de lleno en estos datos. Corregir esa injusticia no es fácil. Hoy día, los anuncios de IA que vemos al navegar por Internet, siguen dependiendo de nuestro sexo y raza, según estudios como el de Latanya Sweeney, una profesora de Harvard.

Los sesgos se perpetúan en las IA entrenadas para seleccionar personal. Según comenta Konstantina Valogianni, profesora en IE Business School, el algoritmo de Amazon para selección de personal tuvo que ser suspendido porque «aprendió inadvertidamente a excluir las solicitudes de mujeres».


Pensemos sobre esto: una herramienta muy novedosa, inquietantemente eficiente, de pronto se basa en datos que son muy antiguos, injustos. Esto me trae a la mente la escena en la que se levantan las tumbas del cementerio indio en Poltergeist: por muy nuevas que sean las casas construidas, descansan sobre un suelo lleno de muertos, y la paz de sus almas se perturba. La IA viene a enfrentarnos a nuestros muertos, a esas injusticias que pensábamos que habían quedado atrás.

Al día con la tecnología: IA

Llevamos años oyendo hablar de la inteligencia artificial, pero este año comienza con una explosión de su uso. En particular, chatGPT genera textos de manera autónoma, respondiendo a las preguntas del usuario, generando contenido y ayudando en la elaboración de textos de todo tipo.

Al principio se comentaba que esta herramienta era muy limitada y que su nivel de profundización en la escritura era el de un alumno de secundaria. Sin embargo, eso fue «ayer». Hoy, chatGPT está entrenado porque miles de usuarios le están dando constante información.

Para estar al día con la tecnología, he hecho mis pruebas y las he aplicado a la generación de contenidos para formación online. Sinceramente, su capacidad es muy sorprendente: el contenido se elabora con corrección (sin erratas), expresiones correctas y en el formato que se quiera: resumen por puntos, elaboración de un guion de vídeo, tablas, preguntas de test… Veamos un ejemplo:

Sí, esta información la podemos encontrar en distintos artículos y está escrita de forma muy generalista. Sin embargo es correcta y 100% original.

Vamos con otra prueba. Una de las dificultades principales en los cursos online es generar preguntas de test que sean relevantes. Como ya hemos visto en este blog, lo habitual es que se escriban enunciados incompletos y que se reconozca claramente la opción correcta por ser más larga y detallada que el resto. Suelen completarse las opciones con «Todas las anteriores», «Ninguna de las anteriores» cuando al autor no se le ocurre nada mejor. Pues bien, esto es lo que me da chatGPT sin darle ningún contexto previo:

En este caso, la respuesta correcta es clara, por ser la más completa. La opciones no son homogéneas. Aun así, puedo afirmar, tras muchos años en el sector del e-learning, que esta pregunta está bastante bien planteada.

Voy a poner un ejemplo más. En ocasiones, en la formación online se reciclan contenidos anteriores que no se pueden editar o, al copiarlos para editarlos, pierden el formato. Para el primer caso, ya desde hace tiempo existen las tecnologías OCR, que permiten transcribir el texto de una imagen. Esto también lo sabe hacer chatGPT si la imagen está en Google Drive o en Dropbox. En mi caso, tenía un contenido que, al pasarlo a otro documento, se le quedaban todas las palabras juntas. ChatGPT me ayudó a resolver esto rápidamente:

Otros tipos de IA

La generación de textos es en lo que me he centrado hasta ahora, sin embargo, la inteligencia artificial también produce imágenes y voces cada vez más realistas, incluso vídeos de personas contando algo, en los que la persona no existe y lo que cuenta es un texto que se ha podido generar con inteligencia artificial.

Imagen generada con DALL.E: «Una persona hablando con un robot en una escena realista en 3D».

¿Cómo reaccionamos ante esto?

La reacción de las personas ante el uso de la inteligencia artificial (IA) para crear contenido puede variar ampliamente. Algunas personas pueden verlo como una herramienta valiosa que puede ayudar a aumentar la eficiencia y la calidad del contenido, mientras que otras pueden tener preocupaciones sobre la posibilidad de que la IA reemplace a los trabajadores o genere contenido que carece de originalidad o sentido común.

En general, el uso de la IA para crear contenido ha sido muy útil en tareas específicas como:

  • La generación de texto.
  • La traducción automática.
  • La creación de imágenes.
  • La generación de música.

Sin embargo, como decía, muchas personas temen que el uso de la IA para crear contenido pueda conducir a la pérdida de empleos y a la homogeneización del contenido debido a la falta de creatividad y originalidad.

Algunos temen que el uso de la IA para crear contenido pueda conducir a la difusión de noticias falsas, contenido engañoso o contenido generado automáticamente que no tiene en cuenta la perspectiva humana, ética o moral.

En general, es importante considerar tanto los beneficios como los riesgos potenciales del uso de la IA para crear contenido y trabajar para garantizar que se utilice de manera responsable y ética.

Referencias

Para comprender la inteligencia artificial y cómo se puede utilizar, revisé varios artículos, aquí pongo una muestra de ellos:

Learning Design 3.0. En este artículo se habla del impacto de la IA en el diseño de experiencias de aprendizaje, y se apunta a distintos programas de IA que permiten realizar distintas tareas.

6 Ways AI Can Support Your Content Creation. Este artículo se centra más en las formas en las que se puede generar contenido (no específicamente formativo) con el apoyo de herramientas de IA.

Usos de chatGPT: una lista de comandos para mejorar tu vida. Este artículo muestra bastantes opciones a la hora de utilizar chatGPT. Digamos que sirve para todo.


La inteligencia artificial ha venido para quedarse, supone una revolución en el mundo digital y específicamente en la formación online y es un carro al que pienso que hay que subirse. Es un reto superar en creatividad y precisión a una herramienta tan potente. Quizá sea mejor idea hacer aquello que los robots no van a poder hacer nunca, algo de lo que ya hemos hablado hace poco.

Por cierto, hay partes de este artículo generadas con inteligencia artificial. ¿Podrías distinguirlas?

¿Qué te parece todo esto? ¿Has hecho pruebas con chatGPT u otra inteligencia artificial? Me encantaría leer tus comentarios y que compartas este artículo con quien quieras. Gracias por leer.