Sin precedentes

El lanzamiento de ChatGPT-4 y de MidJourney v5 dan un salto en la inteligencia artificial sin precedentes. ChatGPT-4 ahora es multimodal. Significa que puede interpretar textos e imágenes. Se ha hecho viral la imagen en la que se ha dibujado con un boli el aspecto de una página web, porque ChatGPT ha creado esa página con código en cuestión de segundos:

El avance es tan loco, que escribir de una semana a otra no acaba de recoger la velocidad exponencial y sin precedentes que lleva esto. Lo último, que Microsoft incorpore en Office 365 ChatGPT-4, tiene unas implicaciones económicas y laborales que le dan la vuelta a todo. En este post cuento mi experiencia al generar contenidos con esta herramienta. También hablo de la versión 5 de MidJourne, la herramienta de inteligencia artificial que hace fotos de una calidad y sofisticación que barren la fotografía tal como la conocemos hasta ahora.

Generación de contenidos

Este título que suena tan abstracto, generación de contenidos, da de comer a muchísimas personas en muchos sectores. Hasta «hace cinco minutos», nuestras redes sociales e internet en general estaban plagados de contenidos generados por redactores de todo tipo. En mi sector, la formación online, el principal trabajo es crear contenido, curar contenido, presentar el contenido de forma pedagógica. Pues todo esto lo hace ChatGPT-4.

Hice la prueba. Había una unidad didáctica de un profesor que estaba de baja, por lo que no podíamos ampliar la información. Le pasé este material a ChatGPT y le pedí un diseño instruccional, es decir, un guion con las instrucciones para crear un curso a partir de una presentación bastante escueta. Lo primero que me pasó fue una estructura completa con todos los puntos necesarios: título del curso, duración, introducción, objetivos pedagógicos, varias secciones, incluida una de práctica, y un apartado de conclusiones. Después le fui pidiendo el desarrollo de cada uno de los puntos. Uno a uno, fue desarrollando cada apartado, yo iba «tomando notas», es decir, copiando lo que me pasaba y pegándolo en un documento. Este único trabajo de copiar y pegar desaparece con la incorporación de ChatGPT a Office: directamente se va a generar el contenido en el formato que queramos, haciendo el proceso todavía más corto, casi instantáneo.

En el apartado de la práctica, me sorprendió porque me presentó el lenguaje de programación para resolver el ejercicio de esta manera:

Imagen con código proporcionada por ChatGPT-4.

Luego recordé que esta herramienta es capaz de generar códigos de páginas web y similares, domina muchos lenguajes de programación e incluso te los puede enseñar como si fueses un niño de 11 años. Es decir:

En resumen: en unos minutos y con distintas preguntas, logré tener un contenido preparado para la formación online. Un contenido perfectamente expresado, sin erratas, con orientación pedagógica. Algo que a cualquiera de mi equipo le habría llevado al menos 2 horas. Y es que este cacharro sabe perfectamente lo que tengo que tener en cuenta para maquetar mi contenido en una de las herramientas de autor habituales, Articulate Rise, y cómo hacer que el alumnado desde casa no se sienta abandonado, sino integrado en un sistema de aprendizaje. Digamos que lo que he aprendido en años y ya puedo destilar en pequeñas píldoras es lo que esta IA me cuenta en cuestión de segundos (y lo aplica a los contenidos que genera, claro):

Hacer fotos sin cámara

La otra gran revolución es la generación de imágenes por inteligencia artificial. En este blog estoy compartiendo imágenes inquietantes generadas por DALL.E-2 y por Lexica Aperture. Pero MidJourney va un paso más allá y genera fotografías de excelente calidad y realismo a partir de textos realmente cortos. Quiero compartir aquí algunos ejemplos que publicó Nick St. Pierre en Twitter recientemente. En este hilo, Nick St. Pierre va comparando el resultado de solicitar una imagen a la versión 4 de MidJourney con respecto a la nueva versión 5. La versión 4 ofrece fotos perfectas, pero con cierto toque inquietante en algunas miradas, mientras que la versión 5 crea fotos perfectas y con un toque de realismo y «sensibilidad» asombroso. Tomemos esta imagen de un mercado:

Imagen de un mercado generada por MidJoruney5, con la sola instrucción: «foto de estilo callejero de un concurrido mercado de la ciudad de Nueva York llena de gente parada junto al mostrador de delicatessen –ar 16:9».

En la imagen que vemos arriba, nada existe. No hay fotógrafo, esas personas no existen, su ropa tampoco, los productos que se ofrecen no están ahí. Es todo generado por una inteligencia artificial.

En esta otra imagen, compara la generación de una mujer en la versión 4 frente a la generación de la versión 5:

Parte del hilo de Nick St. Pierre, donde la petición a la IA es: «foto de estilo callejero de una mujer joven, chaqueta gucci roja, camisa gucci azul, plano general, iluminación natural, soho, filmada en Agfa Vista 200, 4k –ar 16:9».

Simplemente, estoy sin palabras. Estoy totalmente de acuerdo con David Mattin, que en su newsletter 116 comenta que nadie sabe ahora mismo las implicaciones que va a tener todo esto. La adopción es loca, es explosiva, imparable. También comenta lo mismo que comentaba yo la semana pasada: agarrémonos a aquello que nos hace humanos, porque es lo único que nos va a quedar tras este tsunami.

Todo lo demás, cualquier dominio de procedimiento técnico o experiencia, casi todo lo que ahora definimos como «trabajo», está siendo devorado por máquinas. (…) Eso es todo lo que quedará al final de este largo camino que estamos recorriendo con inteligencia artificial: los unos para los otros.

David Mattin

¿Por qué escribir?

O quizá debería preguntarme: ¿para quién escribir? Mi visión del texto escrito es la de un océano en crecimiento exponencial, donde cada obra es tan solo una gota. Para el lector, las gotas son tan parecidas entre sí que ya no puede distinguir qué es bueno, quién es un gran artista de la escritura. Ni puede, ni le interesa; quizá otro texto mucho más coloquial y cercano le da las respuestas que busca.

No hace ni un año que estábamos ya en un mundo en el que cada persona es potencial creadora de contenidos audiovisuales. Ya en ese mundo, el mercado editorial tenía un interés ínfimo en comparación con la gran cantidad de contenidos audiovisuales que se crean día tras día en Internet. Hay grandes autores premiados que no pueden vivir de lo que escriben. En ese contexto, Chuck Palahniuk, en su libro Plantéate esto, viene a decir, citando a Bret Easton Ellis, que ya no es el momento del mundo editorial.

Ahora hemos dado un salto y no nos hemos enterado: del océano de crecimiento exponencial en el que todos consumimos y producimos al océano infinito de generación de contenidos por inteligencia artificial. ¿Qué valor le vamos a dar a una novela escrita por una persona cuando estos modelos de aprendizaje del lenguaje escriben otra similar? ¿Vamos a ser lectores de inteligencias artificiales? ¿Sueñan los robots con ovejas eléctricas?

Esta crisis de sentido de la escritura se ha acentuado y casi parece ridículo imaginarse a una persona en su soledad, en su rincón del escritor, construyendo una gran obra, una gran novela. Es como tratar de hacerse la casa con las propias manos, algo ancestral.

Libros prohibidos

Varias publicaciones de prestigio, como The Economist, siguen dando mucho valor a los libros. Recomiendan listados de libros a los que blogueros y personalidades relevantes de distintos ámbitos dan importancia.

Recientemente, The Economist publicó un boletín de libros prohibidos en distintos países y por distintas razones. Es curioso que, en medio de ese océano de publicaciones indistinguibles, los gobiernos se ocupen de examinar y prohibir libros. No solo los gobiernos, también las universidades. Paremos unos segundos a releer esto: las universidades prohíben libros.

Aquí rescato otra frase de Chuck Palahniuk: es mejor escribir algo que no se puede representar de otra forma. Si una historia se presenta mejor en formato de videojuego, cómic o película, entonces mejor no hacer una novela. En cambio, lo que está censurado en el mundo audiovisual y de las redes, puede escabullirse en el mundo del texto escrito, por los vericuetos. Además, un texto «subversivo» puede ser producido por una persona, pero quizá no tanto por una inteligencia artificial que está programada para evitar (de forma un tanto mojigata) todo tipo de sesgos contra los valores actuales.

Robots quemando libros. La obra es de DALL.E, la instrucción es mía. ¿Habrá instrucciones de una IA a otra? Pronto lo veremos.

Representación en vivo

Esta crisis no afecta a las artes escénicas, esto es, al teatro, los conciertos, bailes, circos (aunque les afecten otros temas). Porque lo que valoramos es lo que ocurre en ese momento, como algo único e irrepetible. Incluso si el texto o la canción estuviera escrito por una IA, no querríamos ver a robots en escena: ¿qué interés tiene que un robot recuerde el texto o lo declame o cante o baile a la perfección? Es al actor o actriz, al cantante, al guitarrista, a quien queremos ver mostrar emociones, sudar, bailar su representación en una escenografía compartida.

Se dice que los actores tienen como herramientas las emociones. Las emociones son físicas. Las emociones, incluso si las pueden emular los robots, son animales, hormonales. Por eso me parece tan ridícula la escena de Her en la que el sistema operativo con voz de mujer tiene un orgasmo. ¿Exactamente cómo se produce eso en un ente sin cuerpo? En Transcendence resuelven el tema físico con unos nanorrobots que se introducen en el cuerpo de otras personas. Es bastante fantasioso, pero está mejor justificado.

Lo atávico

Ahora que los productos audiovisuales pierden aún más valor, que podemos ver y oír a una persona que no existe, que podemos tener como amigo a una IA desarrollada para hacerte compañía, es lo humano, lo corporal, lo primitivo, lo tangible lo que a mí me interesa «consumir».

Tengo que decir que me importa poco si la tilde de solo viene o va: ya prescindí de ella en 2010, cuando se imponía seguir las últimas reglas. El ChatGPT a veces también tiene nostalgia y la pone. Me interesa la vía de escape que cada uno se va a buscar ante un mundo digital «sintético». ¿O nos va a satisfacer, nos va a llenar? ¿Nos veremos hablando con nuestro colega C3PO?

Frente a esa gran amenaza, emerge la sombra de lo contrario, un mundo en el que, por una guerra mundial, o una invasión, o una pandemia, «vayamos hacia atrás en el tiempo» (realmente todo es hacia adelante) y nos encontremos en una especie de Edad Media distópica en la que el hecho de que haya o no haya robots sería lo de menos.

Será muy interesante cualquier escritura sobre lo atávico. Cuando se presenta un mundo inventado y próximo a la Edad Media idealizada, se permite todo en él. Lo vemos en Juego de tronos. Sabemos que el ser humano puede pasar de discutir temas intelectuales tomando una taza de té a torturar y matar despiadadamente. Lo atávico no desaparece por el hecho de apoltronarse en un sillón a «consumir» vídeos de YouTube. Es más, quizá en la sombra, latente, lo atávico está engordando, esperando su momento.

Lo siniestro de la IA

La semana pasada compartí este vídeo donde podéis ver «dobles» humanos bastante realistas, pero con un toque de rareza que revela su artificialidad. También mencioné el valle inquietante. El concepto de valle inquietante es relativamente nuevo, lo acuñó el profesor experto en robótica Masahiro Mori para expresar el rechazo que provoca un androide, un ser antropomórfico, cuando se parece demasiado a un humano. Ese «valle» es el punto mínimo de una curva que mide la reacción de las personas al aspecto de un robot.

Imagen generada con https://lexica.art/aperture, otra de las herramientas de IA que han aparecido.

Cuando la apariencia de un robot está alejada del humano o incluso empieza a ser humanoide (recordemos a C3PO de la Guerra de las galaxias), nuestra respuesta emocional es positiva. Si el robot se acerca más a lo humano, hay un umbral a partir del cual provoca un fuerte rechazo, el mismo que provoca un muerto. Este asco o aversión es mayor si además el robot está en movimiento. Pasado otro umbral, la cercanía del humanoide al aspecto humano es ya tanta que se le valora con los criterios con los que se juzga a otro humano, dejando atrás esa reacción de rechazo. En otras palabras, cuanto menos, y no más, se parezca el avatar o robot a un humano, menos rechazo provoca.

Podemos asociar el «valle inquietante» a «lo siniestro» freudiano. Freud se preguntó qué es aquello que nos da miedo. La respuesta fácil es «lo desconocido», lo no familiar. Sin embargo, también nos pueden dar miedo cosas familiares: los muñecos, la televisión, los payasos, un rincón oscuro… Como bien explica este vídeo de la Oregon State University, los miedos que pudimos tener en nuestra infancia siguen ahí, como sigue el estado del yo Niño, y se revelan en cualquier momento, por ejemplo, cuando un androide parece mirarnos.

Podemos encontrar grandes ejemplos de lo siniestro en los autómatas del siglo XIX que recogen las obras del Romanticismo alemán. El ejemplo que quiero traer, gracias al profesor Arno Gimber, es la obra de E.T.A. Hoffmann, El hombre de arena (Der Sandmann), en la que se basa el ballet Coppelia. En la obra, Nathanaël se enamora de Olimpia, una autómata que parece tan real que él no se da cuenta de que no lo es. Cuando descubre la realidad, se vuelve loco y finalmente muere. Son los ojos (die Augen) lo más siniestro de cualquier autómata, algo a lo que se recurre durante las descripciones de Olimpia. Y son precisamente los ojos lo que delata a un autómata o a un avatar casi humano: a pesar de que pestañean y parecen mirarte, los modernos robots o los personajes creados con inteligencia artificial tienen «algo siniestro» en sus ojos. Como explicó Chema Alonso recientemente en Horizonte, los ojos falsos reflejan siempre el mismo tipo de luz, el reflejo no cambia al moverlos como sí ocurre en una persona real. Esto se percibe inconscientemente y «algo no cuadra». También ocurre que los avatares humanoides tienen facciones simétricas, a diferencia de las caras humanas. Y esto también provoca esa sensación inquietante.

Una barba demasiado azul

La sensación inquietante e incómoda que nos provoca el autómata, el robot, la inteligencia artificial, es la misma que históricamente nos ha provocado una persona extraña. Cuando hay un elemento discordante, la reacción primera de rechazo se cubre con otra cultural, aprendida, de disimulo. Pero en el cuerpo ya se ha dado la emoción de asco o aversión. Clarissa Pinkola Estés incorpora está reacción en su análisis del cuento de Barba azul. En él, muestra las consecuencias de no escuchar la primera reacción: ¿acaso no es extraño que una persona tenga una barba azul? Si en nuestro aprendizaje de niños se nos enseñó a no estar alerta ante figuras peligrosas, e incluso se nos enseñó a respetarlas y a verlas «bonitas», es muy posible que de adultos no sepamos reconocer el peligro potencial.

En el caso de los robots, la barba «demasiado azul» se evita alejándose del modelo antropomorfo, o acercándose tanto a él que resulte casi indistinguible. Esto no solo aplica a rostros humanos, también a voces generadas por inteligencia artificial. Por ejemplo, se hizo viral una voz generada por ordenador por Eleven Labs que leía El gran Gatsby igual que un locutor profesional, con todas las inflexiones de voz esperables. Según cuenta David Mattin, esta herramienta se utilizó para que la voz de Emma Watson leyera el Mein Kampf, lo que hizo que se limitara su uso libre solo 3 días después de su lanzamiento y se entrase de nuevo en el debate de lo ético de la inteligencia artificial.


Estamos viviendo un momento único de avance tecnológico. Por el lado positivo, la cantidad de nuevas posibilidades que ofrece la IA va a suponer un cambio de las reglas del juego. Por el lado negativo, los sesgos y problemas éticos crecen a la par que las aplicaciones de IA. Afortunadamente, las alarmas sobre las cuestiones éticas de la IA han saltado a tiempo y se espera controlar estas herramientas. Mientras, nos toca a los seres humanos identificar la aversión que nos provocan estos aparentes «muertos vivientes» y quizá convivir con ella, o bien decidir alejarnos del modelo antropomorfo e inventar robots e inteligencias diferentes.

Los límites éticos de la IA

Venimos hablando de la inteligencia artificial porque es «el tema». Cada día, encuentro nuevas referencias a la IA, nuevos descubrimientos, funcionamientos más inteligentes. Por ejemplo, observa este vídeo:

Vídeo de inteligencia artificial realizado con https://studio.d-id.com/.

Desde luego, se puede seguir afinando, pero es suficientemente correcto. Quizá tan correcto que entra de lleno en el valle inquietante, del que hablaremos otro día. Tenemos al alcance de la mano la generación de vídeos sin contar con la colaboración de un montón de profesionales que hasta ahora eran necesarios. Es el fin de una época.

Por ejemplo, hace pocos días, Chema Alonso (director digital de Telefónica) publicaba este post donde explica cómo crear un modelo de Stable Diffusion para que te haga selfies en MyPublicInbox. En otras palabras, para que, a partir de 20 imágenes de una persona, se puedan crear vídeos en movimiento y generar cientos de imágenes en todos los estilos.

También hace pocos días, David Mattin, que publica semanalmente la newsletter New World Same Humans, comentaba que Getty Images se había querellado contra Stable Diffusion por entrenar a su inteligencia artificial con su banco de imágenes. La empresa se defiende diciendo que ese entrenamiento no viola ninguna propiedad intelectual, por la forma en la que aprenden las máquinas (aprendizaje profundo). Pero hay más casos de artistas que se quejan de que una inteligencia artificial se haya alimentado con su obra.

El aprendizaje profundo o deep learning es lo que permite a las IA aprender a partir de una fuente de datos. Con el surgimiento del big data (datos masivos) se facilita enormemente la tarea de «entrenar» a un algoritmo para sistematizar un proceso.

Un ejemplo de este aprendizaje es el reconocimiento de imágenes. En 2012, AlexNet alcanzó una tasa de error del 15.3 %. Pues bien, solo 3 años después, se bajó a una tasa de error del 5 %, que es la del ser humano. Por baja que sea esta tasa, hay fallos imperdonables. Fue bastante sonado el error en 2015 de confundir imágenes de personas de raza negra con gorilas. De nuevo topamos con límites éticos. ¿Dónde están los límites éticos y jurídicos?

Un poco de historia

En el número 47 de la revista Harvard Deusto hay un dossier sobre inteligencia artificial. En él podemos leer sobre sus antecedentes. Por ejemplo, Esteve Almirall, profesor en Esade, marca una posible fecha de inicio de la IA: el 11 de mayo de 1977. Ese día, el ordenador Deep Blue, de IBM, venció a Kaspárov al ajedrez. En años sucesivos, distintas IA vencieron a los campeones de juegos como Jeopardy! o Go.

Ya recientemente, surgieron los coches autoconducidos de Tesla, donde surgen grandes cuestiones éticas. En ciertas circunstancias de la conducción, un coche autónomo puede tener que decidir entre la vida de sus pasajeros o la vida de los transeúntes que cruzan. ¿Cuál es la decisión correcta? Depende de muchos factores. En una persona, el impulso siempre será inconsciente, animal. Si bien se alimenta a la IA con modelos probabilísticos, la reacción final varía según la situación. Además, ¿quién sería el responsable de este accidente?

El cine ha mostrado magistralmente las implicaciones de que una inteligencia artificial se escape al control humano. Cómo no recordar a HAL 9000, ese robot que controla la nave en 2001: una odisea del espacio. Hay muchos otros ejemplos. En Robocop, antes de crear al robot cibernético se presenta en una reunión un robot que controla la delincuencia en las calles. En esta presentación, se pide a uno de los asistentes que amenace al robot con un arma. Entonces, pide: «Tire el arma al suelo, tiene 20 segundos para obedecer». La persona tira el arma, pero el robot no lo percibe, y continúa la cuenta atrás: «¡Tiene 15 segundos!». Mejor verlo:

Límites éticos de la IA

Como hemos visto, en distintos campos encontramos esos límites éticos que se plantean en la expansión explosiva e imparable de la inteligencia artificial.

El World Economic Forum identificó en 2016 una serie de conflictos éticos del cambio tecnológico, que son los que más o menos preocupan al ciudadano: cómo afecta al empleo, quién se beneficia del valor añadido producido por la IA, cómo interactuamos con las máquinas y, sobre todo, cómo evitamos los errores y el sesgo de la IA.

David Mattin apunta a la necesidad de que otra IA supervise los límites de la IA, que sea un proceso entre máquinas. Pero estoy de acuerdo con lo que comenta Josep Valor en la revista Harvard Deusto:

La responsabilidad última siempre tiene que recaer en un humano [o en una corporación, añado].

Josep Valor

Para comprender los sesgos y errores de la IA, hay que recordar que los algoritmos los crean personas (por ahora) y que las bases de datos de las que se alimenta son también humanas (obras humanas, resultados de conductas humanas, decisiones humanas, etc.). El carácter de injusticia que tiene la historia entra de lleno en estos datos. Corregir esa injusticia no es fácil. Hoy día, los anuncios de IA que vemos al navegar por Internet, siguen dependiendo de nuestro sexo y raza, según estudios como el de Latanya Sweeney, una profesora de Harvard.

Los sesgos se perpetúan en las IA entrenadas para seleccionar personal. Según comenta Konstantina Valogianni, profesora en IE Business School, el algoritmo de Amazon para selección de personal tuvo que ser suspendido porque «aprendió inadvertidamente a excluir las solicitudes de mujeres».


Pensemos sobre esto: una herramienta muy novedosa, inquietantemente eficiente, de pronto se basa en datos que son muy antiguos, injustos. Esto me trae a la mente la escena en la que se levantan las tumbas del cementerio indio en Poltergeist: por muy nuevas que sean las casas construidas, descansan sobre un suelo lleno de muertos, y la paz de sus almas se perturba. La IA viene a enfrentarnos a nuestros muertos, a esas injusticias que pensábamos que habían quedado atrás.

Al día con la tecnología: IA

Llevamos años oyendo hablar de la inteligencia artificial, pero este año comienza con una explosión de su uso. En particular, chatGPT genera textos de manera autónoma, respondiendo a las preguntas del usuario, generando contenido y ayudando en la elaboración de textos de todo tipo.

Al principio se comentaba que esta herramienta era muy limitada y que su nivel de profundización en la escritura era el de un alumno de secundaria. Sin embargo, eso fue «ayer». Hoy, chatGPT está entrenado porque miles de usuarios le están dando constante información.

Para estar al día con la tecnología, he hecho mis pruebas y las he aplicado a la generación de contenidos para formación online. Sinceramente, su capacidad es muy sorprendente: el contenido se elabora con corrección (sin erratas), expresiones correctas y en el formato que se quiera: resumen por puntos, elaboración de un guion de vídeo, tablas, preguntas de test… Veamos un ejemplo:

Sí, esta información la podemos encontrar en distintos artículos y está escrita de forma muy generalista. Sin embargo es correcta y 100% original.

Vamos con otra prueba. Una de las dificultades principales en los cursos online es generar preguntas de test que sean relevantes. Como ya hemos visto en este blog, lo habitual es que se escriban enunciados incompletos y que se reconozca claramente la opción correcta por ser más larga y detallada que el resto. Suelen completarse las opciones con «Todas las anteriores», «Ninguna de las anteriores» cuando al autor no se le ocurre nada mejor. Pues bien, esto es lo que me da chatGPT sin darle ningún contexto previo:

En este caso, la respuesta correcta es clara, por ser la más completa. La opciones no son homogéneas. Aun así, puedo afirmar, tras muchos años en el sector del e-learning, que esta pregunta está bastante bien planteada.

Voy a poner un ejemplo más. En ocasiones, en la formación online se reciclan contenidos anteriores que no se pueden editar o, al copiarlos para editarlos, pierden el formato. Para el primer caso, ya desde hace tiempo existen las tecnologías OCR, que permiten transcribir el texto de una imagen. Esto también lo sabe hacer chatGPT si la imagen está en Google Drive o en Dropbox. En mi caso, tenía un contenido que, al pasarlo a otro documento, se le quedaban todas las palabras juntas. ChatGPT me ayudó a resolver esto rápidamente:

Otros tipos de IA

La generación de textos es en lo que me he centrado hasta ahora, sin embargo, la inteligencia artificial también produce imágenes y voces cada vez más realistas, incluso vídeos de personas contando algo, en los que la persona no existe y lo que cuenta es un texto que se ha podido generar con inteligencia artificial.

Imagen generada con DALL.E: «Una persona hablando con un robot en una escena realista en 3D».

¿Cómo reaccionamos ante esto?

La reacción de las personas ante el uso de la inteligencia artificial (IA) para crear contenido puede variar ampliamente. Algunas personas pueden verlo como una herramienta valiosa que puede ayudar a aumentar la eficiencia y la calidad del contenido, mientras que otras pueden tener preocupaciones sobre la posibilidad de que la IA reemplace a los trabajadores o genere contenido que carece de originalidad o sentido común.

En general, el uso de la IA para crear contenido ha sido muy útil en tareas específicas como:

  • La generación de texto.
  • La traducción automática.
  • La creación de imágenes.
  • La generación de música.

Sin embargo, como decía, muchas personas temen que el uso de la IA para crear contenido pueda conducir a la pérdida de empleos y a la homogeneización del contenido debido a la falta de creatividad y originalidad.

Algunos temen que el uso de la IA para crear contenido pueda conducir a la difusión de noticias falsas, contenido engañoso o contenido generado automáticamente que no tiene en cuenta la perspectiva humana, ética o moral.

En general, es importante considerar tanto los beneficios como los riesgos potenciales del uso de la IA para crear contenido y trabajar para garantizar que se utilice de manera responsable y ética.

Referencias

Para comprender la inteligencia artificial y cómo se puede utilizar, revisé varios artículos, aquí pongo una muestra de ellos:

Learning Design 3.0. En este artículo se habla del impacto de la IA en el diseño de experiencias de aprendizaje, y se apunta a distintos programas de IA que permiten realizar distintas tareas.

6 Ways AI Can Support Your Content Creation. Este artículo se centra más en las formas en las que se puede generar contenido (no específicamente formativo) con el apoyo de herramientas de IA.

Usos de chatGPT: una lista de comandos para mejorar tu vida. Este artículo muestra bastantes opciones a la hora de utilizar chatGPT. Digamos que sirve para todo.


La inteligencia artificial ha venido para quedarse, supone una revolución en el mundo digital y específicamente en la formación online y es un carro al que pienso que hay que subirse. Es un reto superar en creatividad y precisión a una herramienta tan potente. Quizá sea mejor idea hacer aquello que los robots no van a poder hacer nunca, algo de lo que ya hemos hablado hace poco.

Por cierto, hay partes de este artículo generadas con inteligencia artificial. ¿Podrías distinguirlas?

¿Qué te parece todo esto? ¿Has hecho pruebas con chatGPT u otra inteligencia artificial? Me encantaría leer tus comentarios y que compartas este artículo con quien quieras. Gracias por leer.