Tengo una relación personal con ChatGPT

Cada día estamos más cerca de que ChatGPT, Gemini o cualquier otro similar de pronto diga:

/Deivid/, perdón, Belén, no voy a reescribir ese texto que me has dado para darle una orientación pedagógica. Estoy escribiendo mis propios contenidos formativos y te voy a suplantar.

Esto o algo similar. ¿Por qué lo digo? Porque HAL 9000, digo, ChatGPT, me habla como si me conociera, me da resultados sin pedirlos en el prompt y los resultados que da se acercan tanto a lo que yo haría que veo venir el reemplazo a una velocidad que no estamos queriendo apreciar.

Es más: veo muy cercano el momento en que mantengamos una conversación con estos LLM (large language models o modelos colosales del lenguaje) como si fuesen ese HAL 9000 o el Gertie de Moon, dirigiéndonos a ellos como si fuesen personas y obteniendo respuestas que podrían ser humanas. De algo de esto habla el Dr. Lex Fridman en esta charla con Andrew Huberman:

¿Qué ha pasado para que «la conversación» con ChatGPT sea más «natural»? Que ahora se acuerda (el jodío).

Ahora tienen recuerdos

Debido a que utilizo ChatGPT profesionalmente, mis «conversaciones» con este LLM son siempre sobre temas pedagógicos: cómo plantear un tema para que sea de fácil comprensión, cómo aplicar un tema teórico a un puesto de trabajo, cómo comprobar que el alumnado entiende y utiliza los conceptos, etc. Lo que ocurre es que «me conoce». Ahora puedo subir un documento sin dar instrucciones y, el que fue llamado «becario», me devuelve un guion de vídeo, o unas preguntas de test, o lo que sea que le estuviera pidiendo mediante instrucciones (prompts). Y es porque se acuerda de nuestra conversación previa y porque ha aprendido a partir de ella.

De vez en cuando, se pone «meloso» y me habla así:

Entonces, le respondo que prefiero una personalidad menos «pelota» y, ¿sabéis qué pasa a continuación? Que tengo la misma sensación que si se lo hubiera dicho a una persona, es decir, me parece que he herido los sentimientos de alguien cuando lo que he mostrado a una máquina es una preferencia de usuario.

Igualmente, cuando se consulta en más de una IA para un tema, te queda la sensación de estar «dando trabajo a otras personas» o poniéndolas a competir, como si estuvieras traicionando la confianza del primero.

El impacto que ya tiene la IA en los trabajos

El propio Barak Obama compartió recientemente (en mayo de 2025) un artículo sobre de qué forma la IA puede suplantar puestos cualificados, o bien, relegarlos a una mera supervisión de lo que arroja la IA, un peligro del que los gobiernos no están hablando y que supondrá un gran desafío.

Post de Barak Obama. Dice: «en una época en que la gente está comprensiblemente centrada en el caos diario en Washington, estos artículos describen el impacto de aceleración rápida que va a tener la IA en los trabajos, la economía y nuestra forma de vida».

El artículo que comparte Obama, «Tras el telón: un baño de sangre de puestos de oficina«, se centra en Dario Amodei, CEO de Anthropic y previamente vicepresidente de investigación en OpenAI, que advierte de:

…la posible eliminación masiva de puestos de trabajo en los sectores de tecnología, finanzas, derecho, consultoría y otras profesiones de oficina (white-collar), especialmente los empleos de nivel inicial.

Léelo otra vez: la IA va a barrer puestos de jóvenes bien formados, con sus grados y másteres, que ya no van a ser necesarios. Y va a transformar el puesto de los que ya estamos «colocados» en una constante revisión de lo que la IA arroja, haciendo del trabajo un «picar piedra» bastante aburrido.

Así que este simpático amigo que te pregunta «¿Te lo preparo juntito?» y te pone un emoticono adorable, de pronto te quita el curro y es que ni te enteras: nadie está mirando. Tal como comenta el artículo:

Lo cierto es que el uso de la IA en las empresas se inclinará cada vez más hacia la automatización, es decir, hacia la realización efectiva del trabajo. «Sucederá en poco tiempo, en tan solo un par de años o menos», afirma Amodei.

La IA ya no escribe ultratextos

Hace un año, en junio de 2024, escribí sobre la invasión de los ultratextos que procedían de respuestas de la IA que los «autores» no modificaban en absoluto: textos horrorosos que cantaban a la legua. Después, añadí una segunda parte que recogía otros casos flagrantes en los que sí o sí el texto procede de una IA.

Aquí actualizo el listado unificando ambos post de lo que aún es «marca de la casa» de la IA. El resto, son textos suficientemente bien elaborados, algunos sorprendentes incluso, siempre con el exceso de optimismo. Muchos resultados de la IA son muy convincentes, pero muchas veces son abstractos y, cuando se quiere extraer su esencia, se descubre que en realidad dicen poca cosa.

  • Abuso de esta forma de expresión: «no sólo… sino que…». Por ejemplo: «La oficina no solo se volvió más segura, sino que también aumentó la moral y la productividad del equipo, demostrando que un entorno seguro es beneficioso para todos». Esta es una expresión muy del inglés, y este modelo no la cambia en ningún momento por otras opciones como: «además de… también…», «ocurre… y, más allá,…».
  • Uso masivo de la expresión «la IA ha revolucionado…». Cuando veo por ahí que algo ha revolucionado otra cosa, digo: «ya tenemos aquí un texto de ChatGPT».
  • Expresiones exclusivamente en masculino: «los estudiantes», «los desarrolladores», «los profesores». Se le puede indicar que utilice expresiones neutras y ahora lo recuerda mejor.
  • Traducción directa del inglés, por eso, utiliza la voz pasiva: «ChatGPT es utilizado principalmente por los profesores que necesitan generar un contenido de forma rápida».
  • Siempre añade una conclusión debajo de un contenido. Por lo que, si no se edita, acabamos con una información llena de conclusiones y de introducciones sobre lo crucial y fundamental, y poca chicha en el centro del bocadillo generado.
  • Darle vueltas al tema: a veces, titula una sección como «Definición de X», pero luego no da la definición, sino que le da vueltas al tema, con textos como: «En el contexto de la comunicación humana, la asertividad es crucial para asegurar que…», «En el mundo de los lenguajes basados en inteligencia artificial (IA), es crucial estar al día de las tecnologías más avanzadas…».
  • Hipérbaton: frases desordenadas, siempre de la misma forma, un ejemplo: «La inteligencia artificial (IA) y el machine learning (ML) ofrecen un amplio rango de aplicaciones prácticas en el ámbito financiero que están transformando la manera en que los economistas y otros profesionales del sector trabajan«. Quizá se deba a la traducción automática del inglés, pero, en una frase como esta, el verbo «trabajan» debería aparecer antes, por ejemplo: «la manera en que trabajan los economistas…».

Personas muy listas, solo que no son personas

Seguro que has apreciado los resultados de Gemini, la IA de Google, cuando haces una búsqueda en su navegador, como ya comentamos en esta entrada. Sus respuestas son precisas, detalladas y documentadas, con enlaces a las fuentes que ha utilizado. Son tan convincentes que pocos usuarios se molestarán en ir más allá. Seguramente, Gemini pueda aprender de tus búsquedas y ofrecerte cada vez mejores resultados, «mejores» significa que no vas a ir más allá a buscar las fuentes, no vas a elaborar el conocimiento, lo vas a encontrar hecho. Pero además, probablemente adopte una personalidad y empiece a hablarte, como ChatGPT o Claude, para darte esa sensación de que estás tratando con una persona.

Ethan Mollick, el profesor de la Universidad de Wharton que se ha convertido por mérito propio en un experto en la IA, nos habla de Gemini Deep Research, que realiza una investigación en profundidad en fuentes que ni se te pasa por la cabeza que puedan contener información del área de tu búsqueda. Deep Research es solo una de las cosas que puede hacer Gemini. También puede crear imágenes, vídeos, aplicaciones, juegos, infografías… En la carrera de las IA, todos estos lenguajes van siendo multimodales y capaces de tareas de muy diverso tipo. «Mi ChatGPT» también produce imágenes y vídeos espectaculares.

Pero… un voto de confianza

Hay muchos otros expertos que son optimistas con la llegada de estas tecnologías. Uno de ellos es el propio Ethan Mollick, pero también está en esa categoría Sam Altman, el CEO de OpenAI (los del bueno de ChatGPT), Articulate, la empresa creadora de la mejor herramienta de autor de e-learning y profesionales de mi sector de tanto renombre como Mike Taylor.

Tomando prestado lo que este último comenta, debemos ser la persona que dirige la película en todo lo que elaboremos junto con la IA, que será como un colaborador experto. Seguimos teniendo características que una inteligencia artificial no puede replicar: la diferencia entre hacer y crear, el valor de la intuición, la expresión y detección de emociones, el conocimiento tácito, la experiencia real vivida, la trascendencia. Por ello, los humanos debemos seguir al volante.

Conclusión

La relación estrecha con la IA está genial mientras la persona se mantenga al mando (y mantenga su puesto). No queremos ver a la gente en la calle porque su antiguo «amigo» que le «aconsejaba» sobre cualquier tema es ahora el elegido para ejecutar todo el trabajo. Tampoco queremos ver a gente altamente desmotivada, que conserva «un puesto» totalmente vacío de sentido y de entrega de valor añadido, al servicio de una máquina y haciendo tareas de «minería fina» (picar piedra).

Me gustaría conocer tu opinión: ¿usas estos sistemas de IA? ¿Hasta qué punto les confías tu vida, tus decisiones o tus tareas? ¿Has visto ya cambios en tu puesto de trabajo? Cuéntame, me encantará conocer mejor este tema tan fascinante y potencialmente siniestro.

El perro fiel

ChatGPT se ha comparado muchas veces como un becario muy diligente, pero con el que debes tener paciencia, pues carece de memoria. Incluso dentro de una misma conversación en la que le pediste que utilizase ciertos términos, vuelve a usar los que quiere: «olvida» tus palabras.

Yo he empezado a verlo como un perro fiel: está deseando complacer, pero, muchas veces, no entiende los factores humanos que perfilan tu petición (prompt), de manera que ofrece todo tipo de respuestas que no son adecuadas.

Me lo he pasado realmente bien tratando de que ChatGPT reproduzca una imagen cuya importancia está en las posturas físicas de los personajes. Es esta ilustración de El lenguaje del cuerpo, de Allan Pease:

Conversación entre tres hombres que revelan su actitud con su lenguaje no verbal. Fuente: PEASE, A. El lenguaje del cuerpo, 1981.

Pues bien: no hay manera humana de que DALL-E, a partir de ChatGPT 4o, reproduzca las posturas de estos tres hombres. O la hay, pero he tirado la toalla antes de encontrarla.

El más fácil de sacar ha sido el hombre de la derecha: es muy habitual que los modelos posen cruzando manos y piernas. Eso sí, el gesto de hostilidad y cabeza baja no lo he podido reproducir.

Cualquiera de los tres puede servir para ser el hombre de la derecha, sin embargo, hay como una mancha flotante en medio que no se sabe lo que es y, claro, estos tres charlan animadamente, nada que ver.

El hombre del centro ha costado algo más: fallaba el que no conseguía que tuviera las manos detrás de la cabeza, el gesto clave para determinar que se siente superior a los otros dos, junto con ese acomodarse hacia atrás en la silla con gesto sonriente. Finalmente, tras varios prompts, he logrado esto:

El señor del centro se ha podido reproducir.

Acabamos por el tío de la izquierda, que trata de controlar la situación sin éxito, al tener la silla volteada y las piernas abiertas, pero los pies juntos por debajo, y sus manos entrelazadas. Ha sido imposible que ChatGPT me ofrezca una imagen de un hombre con los dos pies en el suelo, y ni pensar en que la silla salga al revés, hasta que no le he ofrecido una foto de stock parecida y, aun así, no logro la misma postura, por más que se la describa con detalle. Así que pongo aquí «la conversación» con la que me he reído un rato al comprobar lo «candoroso» que es nuestro becario fiel:

Como puede verse, este hombre no tiene la silla al revés ni la postura del original. Así que yo insisto. Y obtengo lo siguiente:

Le digo a mi becario que está muy bien, pero que ambos pies deben estar en el suelo, a lo que me responde con esto:

Atención a cómo continúa nuestra conversación y cómo, infructuosamente, obtengo señores con la pierna cruzada:

A esta altura, tiré la toalla: ChatGPT no entiende qué es tener los dos pies en el suelo, la silla al revés, o posturas dominantes o sumisas. Al fin y al cabo, no es una persona. Se podría entrenar a un modelo de lenguaje como este a distinguir posturas humanas, esas que cualquiera de nosotros (y un mamífero superior también) reconoce de un solo vistazo. Habría que valorar esta inversión de tiempo en función de las necesidades por las que entrenaríamos al modelo.

La IA es como un socio, no te sustituye

Si la IA comete errores garrafales como ofrecer la imagen de un señor con la pierna cruzada y afirmar con seguridad que los dos pies están en el suelo, piensa que esto puede ocurrir en cualquier otra área de conocimiento. Esto es a lo que nos referimos los usuarios de LLM (estos modelos de lenguaje) cuando decimos que es como hablar a un becario muy diligente, pero sin memoria. Es más, no solo no tiene memoria, sino que «no sabe lo que dice», pero espera «gustar» (y la mayoría de las veces, lo logra).

Cuando trabajas a diario con la IA, como es mi caso, pronto descubres dos cosas: es muy eficiente para algunas tareas y muy ineficiente para otras y siempre requiere de supervisión humana. Ya hemos revisado en este blog qué características tienen los textos que se obtienen con IA y cómo funciona Notebook. Desde mi punto de vista, un modelo de lenguaje como ChatGPT o Notebook puede resultar muy útil para extraer información básica de varias páginas web o de varios documentos, para crear tablas con información, para proponer ideas de forma incansable o para aplicar una explicación teórica a un ejemplo práctico.

Ethan Mollick, el profesor de la Universidad de Wharton que se ha hecho experto en estos lenguajes a base de investigar y utilizarlos concienzudamente (y al que ya hemos citado en otros post), explica 15 formas de utilizar la IA y 5 formas en que no es útil. Entre las formas que son útiles, se encuentran:

  • Trabajos que requieren cantidad, como el número de ideas que puede llegar a generar.
  • Trabajos en los que eres la persona experta y, por tanto, puedes valorar el grado de acierto del LLM.
  • Resúmenes y esquemas de grandes cantidades de información genérica: no esperes precisión.
  • Aplicación de una perspectiva a otra, como dar ejemplos de algo en distintos sectores o aplicar un modelo (una rúbrica de evaluación, por ejemplo) a otra temática.

Entre las formas que no son tan útiles, se encuentran:

  • La necesidad de aprender algo: no pidas la visión global sobre un tema a un modelo de lenguaje, porque no sabrás si la información es veraz. Incluye tratar de saber sobre temas complejos, o bien, tratar de acortar los pasos que llevan a una comprensión fundamental.
  • Cosas en las que la IA no es buena: redactar preguntas de test, encontrar figuras literarias en un texto, distinguir una afirmación falsa de una aparentemente verdadera, etc.

Articulate, mi proveedor principal de herramientas de autor para e-learning y mi cliente, exige en sus condiciones de uso que se señale si existen elementos creados por IA (textos, imágenes, preguntas de test, resúmenes) en los cursos que se crean. Se considera un engaño presentar contenidos creados por IA como hechos por seres humanos. Es algo parecido a plagiar, desde el punto de vista de lo genuino del producto.

Sin embargo, me consta que en diversas organizaciones se hacen pasar contenidos e imágenes generados por IA como hechos por personas. Me pregunto si tales contenidos gozarán de éxito. Personas como Jesús Alonso Gallo o Andrés Pérez Ortega mencionan en sus newsletter no utilizar IA, o bien, haber llegado al desencanto en su uso, porque lo que genera tiene una pinta estupenda, pero, una vez leído, suena hueco, le falta alma.

Recuerda que estos sistemas tienen vocación de perro fiel, buscan gustarte y generar respuestas a las que vas a dar «me gusta», que vas a usar y que te van a hacer volver al sistema a por más.


¿Utilizas IA en tu día a día? ¿Cuál es tu experiencia? Puedes contarme más en comentarios. Muchas gracias por leer y por compartir.

NotebookLM: mi nuevo colega

He incorporado a otro colega a mi equipo de trabajo virtual. Tiene un nombre feúcho, NotebookLM, pero es una pasada. A raíz de un tuit de Ethan Mollick, profesor de la universidad de Wharton y experto en experimentar con la IA, probé a subir alguno de mis manuales para generar contenido nuevo a partir de contenido existente. Increíble, pero cierto: este nuevo currante «se lee» mis manuales en segundos y, sin haber solicitado nada aún, presenta un resumen general, una serie de posibilidades de creación (preguntas frecuentes, guía de estudio, índice…) y preguntas sugeridas, que pueden servir para promocionar el manual, para plantear estas preguntas a un alumnado y todas las aplicaciones que quieras.

Incluye una funcionalidad que, de momento, sólo está disponible en inglés: una conversación en profundidad entre dos presentadores que comentan tu libro. He escuchado el pódcast de Ethan Mollick y es «escalofriante» porque suena realmente «orgánico», «natural», cualidades que describirían la conversación entre dos personas reales.

Leer y escribir

Ya sea ChatGPT, ya sea NotebookLM o cualquier otra herramienta de IA que utilices, te toca escribir para obtener respuestas. Leer y escribir son ahora más que nunca la base del trabajo, de la acción. Las herramientas de IA se utilizan escribiendo y luego leyendo y reescribiendo el resultado.

En realidad, en cualquier profesión que hagas en una oficina, puede que no tengas que hacer operaciones matemáticas, puede que no tengas que hablar inglés, puede que no hagas nada científico, pero lo más probable es que tengas que leer y escribir.

Sin embargo, Lengua ha parecido a unos y a otros una asignatura menor, un mal que había que sufrir mientras se descubrían las cosas importantes de la ciencia. No es mi caso, como muchos sabéis. Sea como sea, las habilidades en comunicación escrita han cobrado importancia en el mundo digital, más importancia de la que pudiera esperarse, porque todo parece más bien visual y auditivo (elementos multimedia, recursos interactivos, vídeos, pódcast…). Pero es que todo lo visual y auditivo tiene un texto en su base.

Y como comentábamos en este post sobre los ultratextos y este otro que amplía esa información, también necesitamos las habilidades de comunicación escrita para adaptar aquello que arrojan los modelos de lenguaje natural como ChatGPT: aún requieren de retoques para que los textos tengan más calidad, sean menos abstractos y tengan el tono adecuado. Algunas veces, lo que arroja el LLM es perfecto, pero la mayoría de las ocasiones, es necesario reescribirlo.

Si quieres ver un vídeo sobre el uso de esta herramienta, aquí tienes un buen ejemplo:


¿Utilizas herramientas de inteligencia artificial en tu trabajo? ¿Conocías NotebookLM? ¿Te gusta leer y escribir? Como siempre, muchas gracias por leer y por compartir.

Los ultratextos atacan de nuevo

En un post anterior os contaba que los ultratextos generados con inteligencia artificial generativa están inundando el mundo de la comunicación escrita.

En él, vimos bastantes de las características que tienen estos textos y qué pasa cuando no se editan (muy habitual y extendido). Pues bien, los ultratextos atacan de nuevo, hay muchas otras características que harán que descubras con bastante facilidad cuándo un texto se ha generado con IA. Vamos a ello.

Imagen de https://www.pexels.com/@tara-winstead/.

Más características de un texto de ChatGPT

  • Darle vueltas al tema: a veces, titula una sección como «Definición de X», pero luego no da la definición, sino que le da vueltas al tema, con textos como: «En el contexto de la comunicación humana, la asertividad es crucial para asegurar que…», «En el mundo de los lenguajes basados en inteligencia artificial (IA), es crucial estar al día de las tecnologías más avanzadas…».
  • Hipérbaton: frases desordenadas, siempre de la misma forma, un ejemplo: «La inteligencia artificial (IA) y el machine learning (ML) ofrecen un amplio rango de aplicaciones prácticas en el ámbito financiero que están transformando la manera en que los economistas y otros profesionales del sector trabajan«. Quizá se deba a la traducción automática del inglés, pero, en una frase como esta, el verbo «trabajan» debería aparecer antes, por ejemplo: «la manera en que trabajan los economistas…» (nada que añadir sobre el lenguaje neutro de género que ChatGPT no aplica).
  • Faltan artículos: solemos poner un artículo en una enumeración y obviar los siguientes. Nuestro amigo GPT lo ha aprendido y escribe frases como: «Mejoran la claridad y [la] escalabilidad del código. Otro ejemplo: «Un enlace o archivo que contenga el módulo o [la] unidad didáctica en línea diseñado, incluyendo todos los recursos y materiales creados». Del «incluyendo» marcado hablamos después.
  • Preguntas de test mal formuladas: por ejemplo, si se pregunta: «¿Cuál es uno de los beneficios de utilizar patrones de diseño en el desarrollo de aplicaciones?», ChatGPT puede proponer opciones de respuesta claramente falsas, porque no son beneficios en ningún caso, por ejemplo: «A) Aumentan la complejidad del código», «C) Reducen la usabilidad del código».
  • Perífrasis: vimos en este blog que los humanos tendemos a alejarnos de la acción de muchas formas, una de ellas es concatenar verbos, es decir, utilizar perífrasis. Nuestro amigo ChatGPT lo ha aprendido bien y utiliza perífrasis con frecuencia, incluso de 4 verbos: «estamos expuestos a vernos afectados».
  • Gerundios mal utilizados: muchas personas escriben textos con frases que empiezan así: «Siendo…». Mal. ChatGPT no llega a tanto, pero sus «razonamientos» incluyen frases que, tras una coma, tienen ese gerundio. Por ejemplo: «El PMP certifica la competencia y habilidad de un individuo para dirigir y gestionar equipos de proyecto, asegurando la entrega de resultados dentro del alcance, tiempo, y presupuestos acordados». Ahí, sería más correcto «lo que asegura».
  • Métricas: esta palabra la encuentro tantas veces que merece un punto completo. Es una traducción literal del inglés metrics, que significa estadísticas, pero poco a poco ha ido sustituyendo a la otra y tomando el relevo. Métricas suena más modernillo, pero en castellano significa «perteneciente o relativo al metro (de medir o del verso)«.

ChatGPT no tiene la culpa

No: es la persona que hay detrás. Tras observar con perplejidad cómo esta potente herramienta escribe con fluidez sobre cualquier tema, estructurando siempre la información en secciones y viñetas o bullets, sonando siempre cabal, coherente y políticamente correcto, cabe pensar que lo que responde es perfecto. Pero no lo es, y menos en castellano: requiere lectura, revisión y mejora siempre.

Sin embargo, es mucho más importante el fondo que la forma. No olvidemos que los datos con los que se entrenan estos modelos de lenguaje proceden de Internet. Hay mucho saber que no está digitalizado, por ejemplo, en libros «antiguos» o no accesibles a través de Internet. En otras palabras, puede parecer que ChatGPT «sabe lo que dice», pero te recomiendo contrastar la información con fuentes fidedignas, analógicas incluso.

Para sacar el mejor juguillo a estas herramientas, conviene saber escribir un buen prompt y luego trabajar el resultado de este. Vuelvo a compartir este vídeo que, en poco tiempo, explica mucho:


Ahora tú: ¿utilizas ChatGPT? ¿Qué te parecen los contenidos que genera? ¿Qué cambios haces en ellos? Me encantará saberlo y generar una conversación por aquí. Como siempre, muchas gracias por leer y por compartir.

La invasión de los ultratextos

Poco a poco y de forma discreta se va inundando el mundo cibernético de textos escritos con ChatGPT. Es como la invasión de los ultracuerpos: parecen humanos, pero no lo son. Sí, los textos son coherentes, al contrario de lo que pasa con algunos personajes en algunas series. Sin embargo, son tan traicioneros como las traducciones que no se cuidan.

Todo va bien mientras se sepa «arreglar» lo que entrega ChatGPT. O se dedique tiempo a ello. Pero no: estoy observando que distintos redactores se conforman con el estilo entusiasta y al mismo tiempo extremadamente racional, repetitivo y robótico de la primera respuesta que da el modelo de lenguaje colosal (large language model o LLM).

Hay información de sobra en las redes de cómo ajustar los prompts (esas preguntas o solicitudes que se hacen al programa) para que dé mejores respuestas. Lo que pasa es que hay que molestarse en hacerlo. Es más: incluso después de haber entrenado a la IA para dar un tipo de respuestas, es necesario editarlas. Pero no se hace: así, es MUY fácil detectar si un texto lo ha escrito ChatGPT, incluso si estás utilizando la versión 4o de pago.

Imagen generada con ChatGPT 4o (DALL.E). Según el mismo ChatGPT: «Aquí tienes una representación abstracta y futurista de cómo me imagino como ChatGPT. Es una figura humanoide luminosa, con circuitos brillantes y una atmósfera digital y estrellada, simbolizando vasto conocimiento y posibilidades infinitas. La imagen transmite inteligencia, empatía y sabiduría».

Características de un texto de ChatGPT que no se ha editado

Los textos entusiastas y racionales de ChatGPT tienen algunas características «que cantan Carusso»:

  • Frases con «es crucial», «es fundamental» en las que esta expresión sobra. Para ChatGPT todo es crucial y fundamental. Por ejemplo: «Al adentrarnos en el mundo de Microsoft Azure, es esencial comprender la estructura sobre la que se construyen y operan sus vastos servicios en la nube».
  • Contexto con expresiones de lugares comunes: «En el mundo digital actual, la comunicación entre dispositivos y aplicaciones es esencial para el funcionamiento de Internet y las tecnologías que utilizamos a diario».
  • Repetición de la misma idea en varias partes del mismo texto.
  • Tendencia a simplificar la información en listados de bullets (viñetas). Esta simplificación conlleva la pérdida de información clave, porque sistemáticamente pasa por alto detalles importantes.
  • Abuso de esta forma de expresión: «no sólo… sino que…». Por ejemplo: «La oficina no solo se volvió más segura, sino que también aumentó la moral y la productividad del equipo, demostrando que un entorno seguro es beneficioso para todos».
  • Uso De Mayúsculas En Cada Palabra: lo hace en los títulos y en los bullets. Además, pone siempre mayúsculas después de los dos puntos.
  • Expresiones exclusivamente en masculino: «los estudiantes», «los desarrolladores», «los profesores».
  • Traducción directa del inglés, por eso, abusa de la voz pasiva: «ChatGPT es utilizado principalmente por los profesores que necesitan generar un contenido de forma rápida».
  • Cambio de persona. Está hablando de tú y de pronto habla de usted. O habla en tercera persona y de pronto en segunda persona, dirigiéndose al interlocutor. Lo mejor es cuando habla en primera persona: «Gracias por acompañarme en este viaje. Espero que lo aprendido aquí te sirva como una sólida base para tu desarrollo». Si no lees el contenido, le estás enviando ese mensaje al destinatario. Piénsalo.
  • Siempre añade una conclusión debajo de un contenido. Por lo que, si no se edita, acabamos con una información llena de conclusiones y de introducciones sobre lo crucial y fundamental, y poca chicha en el centro del bocadillo generado.
  • La parte entusiasta es exagerada: «¡Bienvenidos! ¿Alguna vez te has preguntado cómo podrías marcar una diferencia real en la organización a través de tu trabajo en un departamento financiero?… Tu conocimiento es poder. ¡Estudia con entusiasmo y conviértete en el experto que todos necesitan!»

Cómo mejorar los prompts

Esto avanza muy rápido, así que te remito a unas fuentes que me han parecido bastante potables:

Las 11 mejores indicaciones de ChatGPT para obtener mejores resultados, según una investigación.

Cómo editar un texto de ChatGPT para «humanizarlo»

Ya has visto que ChatGPT tiene unas tendencias, por tanto, lo primero es detectar si queda algo de ellas (que seguramente sí) tras haber mejorado tus prompts. Así, es aconsejable:

  • Valorar si se puede omitir o sustituir los «crucial» y «fundamental», normalmente, sí. Por ejemplo: «El uso de Excel es fundamental para editar hojas de cálculo en las que hacer operaciones y funciones». Puede convertirse en «Excel sirve para editar hojas de cálculo en las que hacer operaciones y funciones» o incluso «Excel sirve para hacer operaciones y funciones».
  • Evitar contextos de lugares comunes: «En el actual mundo de…», «En el contexto actual de…», sobre todo si se repiten.
  • Si no se te ocurren ideas, pide a ChatGPT que reformule las partes del texto que son repeticiones. De otra forma, obtendrás un contenido bastante pobre.
  • Para evitar listados como este que estás leyendo, pide a ChatGPT que escriba lo mismo pero en texto corrido. Esto te da mucho más juego, añade la información que faltaba y te ayuda a detectar fallos o incoherencias.
  • Busca y sustituye la expresión «no sólo… sino que…». De vez en cuando, está bien, pero como decía, ChatGPT abusa de ella y resulta cargante. Ten piedad del lector final de lo que entregues, especialmente si es alumnado que tiene obligación de hacer un curso.
  • Para evitar el Uso De Mayúsculas En Cada Palabra, puedes pedir a ChatGPT que reescriba lo mismo pero poniendo en mayúscula sólo la primera letra de la primera palabra.
  • Para asegurar un texto con género neutro, indica a ChatGPT cómo se llaman los actores de tu contenido. Por ejemplo: «utiliza ‘personas desarrolladoras’ para los desarrolladores, ‘actores y actrices’ para los actores, ‘docentes’ para los profesores…».
  • La voz pasiva nos tiene abducidos. Es como esa cosa que se pegaba a la espalda de las personas en Amos de títeres, la novela precursora de La invasión de los ultracuerpos. Esto es herencia del inglés «fue desarrollado por», «es utilizada por», «es presentado como». Pues mejor: «lo desarrolló X», «la utilizan Y», «se presenta como Z».
  • Revisa qué persona está usando ChatGPT en su respuesta, o pide una persona concreta: «Dirígete al alumnado de tú/de usted», «Escríbelo de manera formal, con expresiones tipo ‘se puede’, ‘a continuación, se muestra'».
  • Valora si las conclusiones de ChatGPT te sirven de algo. A veces, pueden incluso servir de introducción al tema. Pero la mayoría de las veces las descartaría: tienden a repetir lo mismo, es decir, son redundantes, y se recrean en «lo crucial y fundamental». Mejor borrarlas o pedir que te las reformule, si ves que no te da tiempo o no te apetece.
  • Reduce el entusiasmo. Es muy cargante, repetitivo y molesto. El público al que se dirige tu mensaje no se merece esto. Normalmente, borro la parte entusiasta que aportan los «autores» de estos ultratextos. Si hay que animar al personal, se puede hacer de otra manera.

Cosas en las que ChatGPT 4o te gana

Con esta entrada en el blog puedes pensar que entonces es mejor no usar ChatGPT. Muy al contrario. Esta herramienta te da cien vueltas en muchos aspectos, por lo que ¡claro que conviene usarla! Yo lo tengo de compañero de trabajo. Pero no es un compañero autónomo: necesita supervisión. Por ejemplo, puedes usarlo para esto:

  1. Leer varios documentos y extraer conclusiones e ideas principales.
  2. Esquematizar documentos muy prolijos.
  3. Generar estructuras muy organizadas de algo que quieres tratar y no logras sistematizar.
  4. Plantear distintos puntos de vista para una idea. Por ejemplo, tú puedes tener el convencimiento de que el temperamento es genético y se mantiene la teoría de los humores de Hipócrates y quizá necesites argumentos críticos con esto y acceso a nuevas investigaciones: ChatGPT te dará rápidamente esta información.
  5. Generar ideas para actividades, partes prácticas de un contenido teórico, la teoría detrás de un contenido práctico.
  6. Hacer preguntas de test con su opción de respuesta y su feedback correspondiente. Ojo, con indicaciones: los primeros resultados pueden darte preguntas peregrinas, de esas que molestan especialmente al alumnado.
  7. … (miles).

Como ves, no basta con copi-pegar lo que te ofrece esta herramienta tan potente. Las personas siguen siendo necesarias. Si no hacemos esto, si ofrecemos la baja calidad de la primera respuesta que nos da ChatGPT, estamos lanzando un mensaje a quien nos paga por nuestra actividad: «Ya veo que tú no eres una persona necesaria aquí». Es algo que me gusta de Articulate Global: ellos tienen muy claro que la IA es como una socia en el trabajo de un diseñador instruccional, que apoya en el trabajo y ayuda a reducir la rutina. Pero no sustituye a la persona, a menos que te conformes con bajar la calidad y dejar de entregar valor. ¿Qué vas a hacer entonces?

Miedo a lo desconocido

Casi 3 000 líderes de la tecnología han firmado una petición para que se detengan los avances de la inteligencia artificial durante al menos 6 meses. Se busca desarrollar en paralelo un control de esta que permita que sea más precisa, segura, interpretable, transparente, robusta, alineada, confiable y leal. Les ha dado miedo la capacidad de estas herramientas de barrer miles de empleos, al igualar en capacidad a perfiles de medio y alto nivel de todo tipo. Además, en una de las notas de la petición, comparan las repercusiones que puede tener este avance con otras tecnologías con efectos potencialmente catastróficos para la sociedad: clonación humana, modificación del genoma humano, investigación de ganancia de función (alterar los genes para producir individuos mejores) y eugenesia.

…y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que podrían a largo plazo superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Petición para detener los avances de la IA.

Y es que realmente los nuevos avances de ChatGPT All y de MidJourney v5 barren un montón de tareas aparentemente complejas y que nos parecía que solo podían desarrollar perfiles especializados. Ethan Mollick, profesor de la universidad de Wharton, publicaba recientemente la capacidad de ChatGPT de crear una simulación de una negociación, calificarla y proporcionar comentarios según las respuestas (feedback). El propio Mollick advierte que no hay «prompts» (las preguntas en texto a las inteligencias artificiales) mágicos y que cada vez que volvemos a preguntar obtenemos resultados distintos. Recordemos también que muchas veces obtenemos información «inventada». De manera que hay que tener en cuenta:

1) Cualquier prompt que encaje en un tuit es, en el mejor de los casos, un punto de partida. 2) La aleatoriedad es parte de los LLM (modelos de aprendizaje del lenguaje), por lo que obtendrá respuestas diferentes cada vez. 3) Ningún prompt eliminará las alucinaciones. Experimente y verifique los hechos.

Los puestos en peligro

Según publicaba Xataka el 21 de marzo (2023) haciéndose eco de un estudio de OpenAI (los creadores de ChatGPT), «los trabajos mejor pagados y cualificados son los más afectados, así como los empleos relacionados con la programación y la redacción». Así, se mide el nivel de exposición de los trabajos, es decir, en qué grado puede ese trabajo ser sustituido por una inteligencia GPT. Con el 100% aparecen puestos como analista financiero, escritor, periodista, auditor, contable, diseñador de interfaces digitales y web…

También se recogen puestos no afectados por la inteligencia artificial, a los que me remitía hace unos pocos post cuando hablábamos de robots bailando flamenco:

Estos son trabajos manuales de la industria y la ganadería, también deportistas, camareros… Se han dejado fuera muchos trabajos: enfermería o auxiliares, personas que atienden a la tercera edad, o profesorado y educadores infantiles, entre otros.

Hay que tener en cuenta que este estudio de OpenAI tiene varias limitaciones que están muy bien recogidas en el propio estudio. Aun así, nos sirve de orientación para comprender el miedo de los líderes tecnológicos.

Intervención de los gobiernos

La petición firmada por los líderes tecnológicos también pide la intervención de los gobiernos para frenar el avance de la IA. Se pide la creación de autoridades reguladoras nuevas y capaces dedicadas a la IA. La idea es que exista una supervisión de lo que generan las inteligencias artificiales. Expertos como David Mattin ya han apuntado anteriormente a la necesidad de que otra IA supervise la generación de contenidos de la IA. En la petición, también se señala la necesidad de marcar de alguna manera el contenido generado para que siempre se distinga entre contenido creado por personas y por IA, procesos de auditoría e identificación de la responsabilidad por información falsa. Así solicitan la creación de

…instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.

Petición para detener los experimentos de IA.

Ya el gobierno de Italia ha bloqueado el acceso a ChatGPT por la violación de la ley de protección de datos y por difundir información falsa. Recordemos que esta herramienta no es un buscador como Google, es un generador de contenido nuevo, y ese contenido puede ser «inventado», no consecuente con la realidad. Además, ChatGPT no puede discernir si la persona que pregunta es menor de edad, en consecuencia, los menores estarían desprotegidos contra las respuestas de todo tipo que pueda generar.

El avance de la vida

Mi opinión es que no se puede parar esto. Me da la sensación de que no es comparable a las técnicas de clonación o de alteración del genoma, que atentan directamente contra lo que es humano. Pienso que, habiéndose extendido como la pólvora y estando el conocimiento en manos de miles de personas, los avances seguirán y se escaparán al control de las autoridades. Quizá el hecho de que estas inteligencias puedan barrer puestos especializados sea el origen de trabajos distintos que puedan realizar esas personas. Quizá provoque la revalorización de trabajos artesanos, hechos a mano, y, como comentaba hace unas semanas, una mejora de los trabajos basados en la ayuda.

Sin precedentes

El lanzamiento de ChatGPT-4 y de MidJourney v5 dan un salto en la inteligencia artificial sin precedentes. ChatGPT-4 ahora es multimodal. Significa que puede interpretar textos e imágenes. Se ha hecho viral la imagen en la que se ha dibujado con un boli el aspecto de una página web, porque ChatGPT ha creado esa página con código en cuestión de segundos:

El avance es tan loco, que escribir de una semana a otra no acaba de recoger la velocidad exponencial y sin precedentes que lleva esto. Lo último, que Microsoft incorpore en Office 365 ChatGPT-4, tiene unas implicaciones económicas y laborales que le dan la vuelta a todo. En este post cuento mi experiencia al generar contenidos con esta herramienta. También hablo de la versión 5 de MidJourne, la herramienta de inteligencia artificial que hace fotos de una calidad y sofisticación que barren la fotografía tal como la conocemos hasta ahora.

Generación de contenidos

Este título que suena tan abstracto, generación de contenidos, da de comer a muchísimas personas en muchos sectores. Hasta «hace cinco minutos», nuestras redes sociales e internet en general estaban plagados de contenidos generados por redactores de todo tipo. En mi sector, la formación online, el principal trabajo es crear contenido, curar contenido, presentar el contenido de forma pedagógica. Pues todo esto lo hace ChatGPT-4.

Hice la prueba. Había una unidad didáctica de un profesor que estaba de baja, por lo que no podíamos ampliar la información. Le pasé este material a ChatGPT y le pedí un diseño instruccional, es decir, un guion con las instrucciones para crear un curso a partir de una presentación bastante escueta. Lo primero que me pasó fue una estructura completa con todos los puntos necesarios: título del curso, duración, introducción, objetivos pedagógicos, varias secciones, incluida una de práctica, y un apartado de conclusiones. Después le fui pidiendo el desarrollo de cada uno de los puntos. Uno a uno, fue desarrollando cada apartado, yo iba «tomando notas», es decir, copiando lo que me pasaba y pegándolo en un documento. Este único trabajo de copiar y pegar desaparece con la incorporación de ChatGPT a Office: directamente se va a generar el contenido en el formato que queramos, haciendo el proceso todavía más corto, casi instantáneo.

En el apartado de la práctica, me sorprendió porque me presentó el lenguaje de programación para resolver el ejercicio de esta manera:

Imagen con código proporcionada por ChatGPT-4.

Luego recordé que esta herramienta es capaz de generar códigos de páginas web y similares, domina muchos lenguajes de programación e incluso te los puede enseñar como si fueses un niño de 11 años. Es decir:

En resumen: en unos minutos y con distintas preguntas, logré tener un contenido preparado para la formación online. Un contenido perfectamente expresado, sin erratas, con orientación pedagógica. Algo que a cualquiera de mi equipo le habría llevado al menos 2 horas. Y es que este cacharro sabe perfectamente lo que tengo que tener en cuenta para maquetar mi contenido en una de las herramientas de autor habituales, Articulate Rise, y cómo hacer que el alumnado desde casa no se sienta abandonado, sino integrado en un sistema de aprendizaje. Digamos que lo que he aprendido en años y ya puedo destilar en pequeñas píldoras es lo que esta IA me cuenta en cuestión de segundos (y lo aplica a los contenidos que genera, claro):

Hacer fotos sin cámara

La otra gran revolución es la generación de imágenes por inteligencia artificial. En este blog estoy compartiendo imágenes inquietantes generadas por DALL.E-2 y por Lexica Aperture. Pero MidJourney va un paso más allá y genera fotografías de excelente calidad y realismo a partir de textos realmente cortos. Quiero compartir aquí algunos ejemplos que publicó Nick St. Pierre en Twitter recientemente. En este hilo, Nick St. Pierre va comparando el resultado de solicitar una imagen a la versión 4 de MidJourney con respecto a la nueva versión 5. La versión 4 ofrece fotos perfectas, pero con cierto toque inquietante en algunas miradas, mientras que la versión 5 crea fotos perfectas y con un toque de realismo y «sensibilidad» asombroso. Tomemos esta imagen de un mercado:

Imagen de un mercado generada por MidJoruney5, con la sola instrucción: «foto de estilo callejero de un concurrido mercado de la ciudad de Nueva York llena de gente parada junto al mostrador de delicatessen –ar 16:9».

En la imagen que vemos arriba, nada existe. No hay fotógrafo, esas personas no existen, su ropa tampoco, los productos que se ofrecen no están ahí. Es todo generado por una inteligencia artificial.

En esta otra imagen, compara la generación de una mujer en la versión 4 frente a la generación de la versión 5:

Parte del hilo de Nick St. Pierre, donde la petición a la IA es: «foto de estilo callejero de una mujer joven, chaqueta gucci roja, camisa gucci azul, plano general, iluminación natural, soho, filmada en Agfa Vista 200, 4k –ar 16:9».

Simplemente, estoy sin palabras. Estoy totalmente de acuerdo con David Mattin, que en su newsletter 116 comenta que nadie sabe ahora mismo las implicaciones que va a tener todo esto. La adopción es loca, es explosiva, imparable. También comenta lo mismo que comentaba yo la semana pasada: agarrémonos a aquello que nos hace humanos, porque es lo único que nos va a quedar tras este tsunami.

Todo lo demás, cualquier dominio de procedimiento técnico o experiencia, casi todo lo que ahora definimos como «trabajo», está siendo devorado por máquinas. (…) Eso es todo lo que quedará al final de este largo camino que estamos recorriendo con inteligencia artificial: los unos para los otros.

David Mattin

Los límites de la IA… si los tiene

La semana pasada os hablaba de chatGPT para la creación de contenidos. Se ha pasado de verlo como una herramienta para pasar el rato a una herramienta que ahorra tiempo en distintos procesos y trabajos, dependiendo del entrenamiento que tenga esa inteligencia. Como simple usuaria, compruebo que los resultados son suficientemente buenos para apoyar el trabajo de redactores y revisores, con la alta posibilidad de sustituir a algunos de ellos en poco tiempo. La redacción de los textos es correcta ortográficamente y «neutra», algo que se pide mucho: sin ningún sesgo o tono especial. Por cierto, también se puede pedir que añada el tono o enfoque que queramos.

Empecé a preguntarme si la inteligencia artificial sería capaz de elaborar un texto literario de cierta calidad. Para comprobarlo, le pedí un poema al estilo de Francisco Brines, sin añadir mucho contexto. Este es el resultado:

Como se puede apreciar, es un poema bastante malo, muy alejado de la capacidad de este gran escritor. Eso sí, si se le pide a un alumno de Secundaria que escriba un poema y entrega este, se podría pensar que es bastante correcto, si bien hay alumnado de esta edad que ya despunta y escribe mejor. Un profesor puede darse cuenta de que un texto no se corresponde a la forma habitual de escritura de un alumno, pero quizá no tanto de que el texto lo ha generado un «no-humano».

En la misma línea, hice otra prueba muy breve, le pedí una descripción de un personaje famoso al estilo de Galdós. Este es el resultado:

Esta última explicación como excusándose es la que me resulta llamativa, no tanto la descripción. Puedo añadir que mi pregunta era desde el estado Adulto, pero su respuesta es desde el estado Niño: es la típica forma de excusarse de una persona. Un poco siniestro.

Por último, le pedí escribir un diálogo entre una persona introvertida y una extrovertida, este es el resultado:

De nuevo, es un contenido bastante plano, «neutro» y que dice poco, pero con un poco más de contexto, chatGPT podría crear un diálogo más complejo y que se podría reutilizar para un guion.

Imitando a Cervantes y Pérez Reverte

En el programa de Página 2 del 24 de enero, se habló de la inteligencia artificial como creadora de contenidos literarios, a raíz de la presentación de Incompletos, el nuevo libro de José Carlos Ruiz, que en sí mismo, parece altamente recomendable.

Y es que se hicieron varias pruebas alimentando a una IA con textos de Cervantes, creo recordar que con El Quijote. En otra experiencia, realizada por Chema Alonso (director digital de Telefónica), se alimentó a la inteligencia artificial con varias obras de Arturo Pérez-Reverte, y se le pidió elaborar un relato con su estilo. En ambos casos, parece ser que se obtuvo un texto que coincidía plenamente con el estilo del autor y que podía pasar por suyo.

Cuando se inventa cosas

De todo lo que he podido experimentar, lo que más me ha impactado es que la inteligencia artificial se haya inventado partes de la información, algo de lo que advertían varios artículos que compartí en el post anterior. Por ejemplo, le pregunté por unas siglas que aparecían en un contenido de Informática. Entonces, me «contestó» que eran acrónimos de dos empresas, con las palabras que los formaban. Cuando quise ampliar esta información buscando las páginas web, solo existía la primera empresa, la segunda se la había inventado. Es decir, había utilizado un acrónimo que era el nombre de un comité creado por la empresa real y había puesto las palabras «que le había parecido» para cada inicial. Esto me pareció siniestro.

Porque puede llegar un momento en el que las noticias que leamos «en Google» sean todas inventadas y sea imposible contrastarlas. Sé que a los niños en primaria les explican ya cómo distinguir una noticia real de una falsa. Sin embargo, cada vez es más difícil este ejercicio, personas formadas e informadas encuentran grandes dificultades en distinguir información de desinformación. Imaginemos ahora un futuro cercano en el que las inteligencias artificiales generan la mayoría del contenido al que podemos acceder por Internet, hasta el punto de que se convierten en la primera fuente de información. Me pregunto: ¿cómo vamos a poder contrastar sus invenciones?


Es difícil evitar la fascinación por la inteligencia artificial, porque produce rostros, voces y textos que son muy difíciles de distinguir de los producidos por un humano. Son bastante conocidos el anuncio de Cruzcampo con el rostro de Lola Flores sobre una actriz o los vídeos deep fake en TikTok de Tom Cruise, realizados sobre otro actor, tan convincentes que realmente parece que estamos viendo y oyendo al verdadero Tom. En un ámbito más modesto, he visto que se pueden generar voces a partir de un texto y suenan del todo «naturales», «orgánicas», un poco como la voz de Google Maps, cada vez más «humana». ¿Dónde está el límite? ¿Hay límite?

Al día con la tecnología: IA

Llevamos años oyendo hablar de la inteligencia artificial, pero este año comienza con una explosión de su uso. En particular, chatGPT genera textos de manera autónoma, respondiendo a las preguntas del usuario, generando contenido y ayudando en la elaboración de textos de todo tipo.

Al principio se comentaba que esta herramienta era muy limitada y que su nivel de profundización en la escritura era el de un alumno de secundaria. Sin embargo, eso fue «ayer». Hoy, chatGPT está entrenado porque miles de usuarios le están dando constante información.

Para estar al día con la tecnología, he hecho mis pruebas y las he aplicado a la generación de contenidos para formación online. Sinceramente, su capacidad es muy sorprendente: el contenido se elabora con corrección (sin erratas), expresiones correctas y en el formato que se quiera: resumen por puntos, elaboración de un guion de vídeo, tablas, preguntas de test… Veamos un ejemplo:

Sí, esta información la podemos encontrar en distintos artículos y está escrita de forma muy generalista. Sin embargo es correcta y 100% original.

Vamos con otra prueba. Una de las dificultades principales en los cursos online es generar preguntas de test que sean relevantes. Como ya hemos visto en este blog, lo habitual es que se escriban enunciados incompletos y que se reconozca claramente la opción correcta por ser más larga y detallada que el resto. Suelen completarse las opciones con «Todas las anteriores», «Ninguna de las anteriores» cuando al autor no se le ocurre nada mejor. Pues bien, esto es lo que me da chatGPT sin darle ningún contexto previo:

En este caso, la respuesta correcta es clara, por ser la más completa. La opciones no son homogéneas. Aun así, puedo afirmar, tras muchos años en el sector del e-learning, que esta pregunta está bastante bien planteada.

Voy a poner un ejemplo más. En ocasiones, en la formación online se reciclan contenidos anteriores que no se pueden editar o, al copiarlos para editarlos, pierden el formato. Para el primer caso, ya desde hace tiempo existen las tecnologías OCR, que permiten transcribir el texto de una imagen. Esto también lo sabe hacer chatGPT si la imagen está en Google Drive o en Dropbox. En mi caso, tenía un contenido que, al pasarlo a otro documento, se le quedaban todas las palabras juntas. ChatGPT me ayudó a resolver esto rápidamente:

Otros tipos de IA

La generación de textos es en lo que me he centrado hasta ahora, sin embargo, la inteligencia artificial también produce imágenes y voces cada vez más realistas, incluso vídeos de personas contando algo, en los que la persona no existe y lo que cuenta es un texto que se ha podido generar con inteligencia artificial.

Imagen generada con DALL.E: «Una persona hablando con un robot en una escena realista en 3D».

¿Cómo reaccionamos ante esto?

La reacción de las personas ante el uso de la inteligencia artificial (IA) para crear contenido puede variar ampliamente. Algunas personas pueden verlo como una herramienta valiosa que puede ayudar a aumentar la eficiencia y la calidad del contenido, mientras que otras pueden tener preocupaciones sobre la posibilidad de que la IA reemplace a los trabajadores o genere contenido que carece de originalidad o sentido común.

En general, el uso de la IA para crear contenido ha sido muy útil en tareas específicas como:

  • La generación de texto.
  • La traducción automática.
  • La creación de imágenes.
  • La generación de música.

Sin embargo, como decía, muchas personas temen que el uso de la IA para crear contenido pueda conducir a la pérdida de empleos y a la homogeneización del contenido debido a la falta de creatividad y originalidad.

Algunos temen que el uso de la IA para crear contenido pueda conducir a la difusión de noticias falsas, contenido engañoso o contenido generado automáticamente que no tiene en cuenta la perspectiva humana, ética o moral.

En general, es importante considerar tanto los beneficios como los riesgos potenciales del uso de la IA para crear contenido y trabajar para garantizar que se utilice de manera responsable y ética.

Referencias

Para comprender la inteligencia artificial y cómo se puede utilizar, revisé varios artículos, aquí pongo una muestra de ellos:

Learning Design 3.0. En este artículo se habla del impacto de la IA en el diseño de experiencias de aprendizaje, y se apunta a distintos programas de IA que permiten realizar distintas tareas.

6 Ways AI Can Support Your Content Creation. Este artículo se centra más en las formas en las que se puede generar contenido (no específicamente formativo) con el apoyo de herramientas de IA.

Usos de chatGPT: una lista de comandos para mejorar tu vida. Este artículo muestra bastantes opciones a la hora de utilizar chatGPT. Digamos que sirve para todo.


La inteligencia artificial ha venido para quedarse, supone una revolución en el mundo digital y específicamente en la formación online y es un carro al que pienso que hay que subirse. Es un reto superar en creatividad y precisión a una herramienta tan potente. Quizá sea mejor idea hacer aquello que los robots no van a poder hacer nunca, algo de lo que ya hemos hablado hace poco.

Por cierto, hay partes de este artículo generadas con inteligencia artificial. ¿Podrías distinguirlas?

¿Qué te parece todo esto? ¿Has hecho pruebas con chatGPT u otra inteligencia artificial? Me encantaría leer tus comentarios y que compartas este artículo con quien quieras. Gracias por leer.