Tu cerebro en Chat GPT: ¿Más vago, más inteligente?


Pincha sobre la imagen superior para acceder al experimento


Tardarás en leer este texto entre 6 a 7 minutos, hasta 8 minutos si te detienes en algunas reflexiones. Te recomiendo leerlo sin prisas, dejando pochar las ideas, pensando en qué aportan a tu propio contexto como docente.

Aún así, te adjunto aquí el podcast de casi 7 minutos, que me ha generado NotebookLM, aportando como fuente el pdf de mi artículo. 


- o -


Cada vez que se publica un estudio científico sobre IAG, pululan por las redes cientos de mensajes que apocalípticos e integrados aprovechan para conducir el cauce a la linde de sus certezas. Así, cuando hace poco supimos que un equipo de investigación del MIT Media Lab y otras instituciones académicas de Boston llevaron a cabo entre 2023 y 2024 un experimento pionero para analizar el impacto cognitivo de usar ChatGPT en tareas educativas, concretamente en la redacción de ensayos, las reacciones polarizadas no esperaron mucho en inundar los foros digitales y advertir con vehemencia y fe intachable las terribles consecuencias que el uso de Chat GPT y otras IAG tienen sobre nuestro cerebro, especialmente el de los menores. Pocos mensajes parecían haber leído el estudio (de más de 200 páginas) y hacer un análisis menos maniqueo y mesiánico, más sosegado y racional. Como sucede en política, en las redes a menudo importa más aprovechar una noticia para confirmar nuestros miedos o deseos que hacer honor a una verdad contrastada, que refleje las complejidades y contradicciones de su aplicación en la vida real y no en nuestra imaginación. 

Veamos qué dice realmente el estudio, qué reflexiones suscita y cómo aplicarlas en nuestra práctica docente. 


Múltiples debilidades de base

  • El tamaño de muestra es limitadoAunque se reclutaron 54 participantes, solo 18 completaron la sesión más reveladora (la 4ª). Este tamaño es insuficiente para generalizar con rigor estadístico.
  • La mayoría de participantes eran estudiantes universitarios de élite (MIT, Wellesley, Harvard…), lo cual limita la aplicabilidad de los resultados a otras edades, niveles educativos o contextos culturales.
  • A pesar de realizarse durante cuatro meses, el tiempo efectivo de exposición al uso o no uso del LLM fue limitado. No permite extraer conclusiones firmes sobre el impacto prolongado en habilidades cognitivas o de escritura. No hubo seguimiento a largo plazo. El experimento mide lo que ocurre en 20 minutos, no cómo se aprende con el tiempo, ni cómo la IA puede convertirse en una herramienta de pensamiento. ¿Qué pasa tras semanas o meses de uso inteligente y guiado de la IA en clase?
  • El estudio solo analizó una tarea: redacción de ensayos SAT (Scholastic Assessment Test, una prueba estandarizada muy común en Estados Unidos para acceder a la universidad). No sabemos si los resultados serían similares en actividades de razonamiento lógico, resolución de problemas o aprendizaje colaborativo.
  • Sesgo de novedad-familiaridad. Algunos participantes ya usaban ChatGPT con frecuencia, otros no lo habían probado nunca. Esta diferencia de familiaridad puede haber afectado tanto el rendimiento como la activación cerebral.
  • Evaluación subjetiva parcial. Aunque hubo jueces humanos y un AI judge (agente de IA diseñado para analizar y puntuar los ensayos escritos por los participantes), los criterios de calidad de los ensayos y de “propiedad percibida” son en parte subjetivos. No se utilizó un sistema de evaluación externa plenamente ciego.
  • Condición artificial del entorno. Los participantes escribieron con un casco EEG (de electroencefalografía, un dispositivo que se coloca sobre la cabeza y sirve para medir la actividad eléctrica del cerebro en tiempo real) puesto y bajo vigilancia experimental, lo cual podría alterar sus estrategias naturales de redacción, especialmente en condiciones de no-uso de herramientas.
  • Interpretación ambigua del EEG. La interpretación del descenso en conectividad cerebral con uso de LLM como “carga cognitiva más baja = menor aprendizaje” es debatible. Podría también reflejar eficiencia, no desuso mental. Cuando el estudio dice que el uso de ChatGPT reduce la actividad cerebral, lo interpreta como que pensamos menos y aprendemos menos. Pero eso no está del todo claro. Tener menos actividad no siempre significa que el cerebro esté "vago"; a veces, significa que está siendo más eficiente, como cuando ya sabes cómo hacer algo y lo haces sin esfuerzo.
  • Limitado análisis cualitativo profundo. Aunque se incluyeron entrevistas, la parte cualitativa no fue analizada con metodologías etnográficas o semióticas más potentes. El componente narrativo del "cómo se sintieron" podría haberse explotado más. Aunque hablaron con los participantes después de cada sesión, el estudio no profundizó demasiado en lo que sentían, pensaban o cómo vivieron la experiencia. Se recogieron opiniones, sí, pero faltó una mirada más profunda, más humana, que analizara no solo lo que hicieron, sino cómo lo vivieron. La historia detrás de los datos se quedó, en parte, sin contar. Quien es docente sabe que existen múltiples factores que influyen en el proceso de aprendizaje, a menudo extracurriculares, además de sesgos sociales y económicos, culturales...
  • Uso artificial y limitado de la IAEl grupo con ChatGPT solo podía usar esa herramienta, sin navegar, contrastar, editar libremente ni usar otros recursos. Eso no refleja cómo se usa realmente la IA en el aula, donde el alumnado mezcla fuentes, prueba, reescribe, compara...
  • Reducción de “aprender” a “escribir un ensayo”. Se mide el aprendizaje exclusivamente a través de una tarea individual, breve y estructurada. Se ignora el aprendizaje colaborativo, el descubrimiento, el juego, la argumentación oral o el uso de la IA como andamiaje cognitivo.
  • Sesgo tecnológico: el casco manda. Se da mucho peso a lo que dice el EEG (menos actividad = menos aprendizaje), pero la interpretación de esos datos es ambigua. Poca actividad puede significar “automatización eficiente”, no necesariamente “vagancia mental”.
  • Entorno cerrado y descontextualizado. No hay interacción con docentes, no hay feedback, no hay diálogo ni revisión. El uso de la IA es individual, solitario, y sin conexión con objetivos de aprendizaje o evaluación reales. El aula es un ecosistema. El experimento, una cápsula estanca.
  • El aprendizaje emocional y metacognitivo queda fuera. No se analiza el efecto motivador, creativo o reflexivo que puede tener la IA si se usa bien. Tampoco se mide cómo ayuda a estudiantes inseguros a atreverse a empezar, ni cómo cambia la relación con el error. La IA también puede empoderar, no solo sustituir procesos mentales.


¿Cómo se hizo el experimento?

El estudio duró cuatro meses y participaron 54 estudiantes universitarios de centros como MIT, Harvard o Wellesley. El objetivo era observar cómo cambia nuestra forma de pensar (y nuestro cerebro) cuando escribimos ensayos con o sin ayuda de una IA como ChatGPT.

Dividieron a los participantes en 3 grupos:

  • Grupo "solo cerebro": escribían sin ayuda, ni internet ni IA.
  • Grupo "buscador": podían usar Google, pero no ChatGPT.
  • Grupo "ChatGPT": solo podían usar ChatGPT para escribir.

Escribían ensayos sobre temas tipo SAT (temas abstractos como la felicidad, la lealtad, la filantropía...). En cada sesión, elegían uno entre tres posibles y tenían 20 minutos para redactarlo.

Mientras escribían, llevaban un casco EEG que medía su actividad cerebral. Así podían ver qué zonas del cerebro se activaban más o menos según el grupo.

Después de cada sesión, hacían una pequeña entrevista sobre:

  • Qué estrategia habían seguido.
  • Qué recordaban de lo que escribieron.
  • Si sentían que el texto era “suyo”.
  • Si estaban satisfechos con el resultado.
En una cuarta sesión (opcional), algunos cambiaron de grupo:

  • Los que habían usado ChatGPT antes escribieron sin ninguna ayuda.
  • Los que antes escribían “a pelo” usaron ChatGPT por primera vez.
  • Así pudieron comparar qué pasaba cuando cambiaban de estrategia.

Evaluaron los ensayos usando dos métodos:
  • Un equipo de profes que los puntuó.

  • Un AI judge, es decir, una inteligencia artificial que analizaba los textos con criterios lingüísticos y de calidad.

¿Qué descubrieron?

1. Tu cerebro trabaja menos con ChatGPT

  • El casco EEG mostró que los cerebros estaban menos activos cuando usaban ChatGPT que cuando escribían solos o con un buscador.

  • El grupo “solo cerebro” activaba más zonas del cerebro relacionadas con memoria, atención y razonamiento.

  • Cuanto más ayuda externa, menos conexiones neuronales activas.

2. Los que usaban ChatGPT recordaban menos

  • Al final de cada sesión, se les preguntaba: ¿puedes citar algo que hayas escrito hace 10 minutos?

  • El grupo ChatGPT apenas recordaba nada. En cambio, quienes escribían sin ayuda sí podían citar partes de su ensayo.

  • Es decir: usar IA ayudó a escribir más rápido, pero no ayudó a recordar.

3. Menor sensación de “esto lo he escrito yo”

  • El grupo ChatGPT fue el que menos se sintió autor de su texto.

  • Algunos decían que no sabían ni qué había escrito la IA y qué habían escrito ellos.

  • En cambio, quienes escribían sin herramientas sentían que el texto era suyo de principio a fin.

4. Cambiar de grupo provocó efectos curiosos

  • Los que pasaron de usar ChatGPT a escribir sin ayuda mostraron menos activación cerebral que los que nunca usaron IA. Es como si el cerebro se “acomodara”.

  • En cambio, los que pasaron de escribir a pelo a usar ChatGPT usaron la IA con más estrategia y activaban más zonas visuales y de memoria. Este hecho es relevante a la hora de articular medidas progresivas, por etapas escolares, de uso de la IAG.

5. La IA escribe bien… pero sin alma

  • Los ensayos generados con ChatGPT eran correctos, bien redactados y coherentes.

  • Pero eran más homogéneos, impersonales y repetitivos.

  • Usaban expresiones típicas, pocas variaciones, y menos riqueza conceptual o emocional.



Aspectos interesantes

  • El estudio introduce la idea de que cuanto más delegamos en la IA, menos ejercitamos el cerebro. Subrayo "delegamos". Esto invita a preguntarnos: ¿Qué habilidades estamos desarrollando o dejando atrofiar cuando escribimos con ChatGPT? Buena oportunidad para trabajar pensamiento crítico, memoria y autoría en el aula.

  • Los usuarios de ChatGPT recuerdan menos lo que han escrito y sienten menor propiedad del textoEsto plantea un dilema pedagógico crucial: ¿escribir sin comprender es aprender? El uso de la IAG no puede plantearse sin acompañamiento del docente, criterios previos y evaluación que mejore el proceso. No se puede dejar solo al estudiante, hay que guiarle y hacer un uso didáctico que facilite el desarrollo de destrezas cognitivas, no que la sustituyan. Esto requiere de una reflexión por parte del docente.

  • El uso del EEG para medir patrones de conectividad cerebral es una aportación metodológica potentePuede abrir debates sobre qué tipo de “actividad mental” valoramos: ¿más esfuerzo = mejor aprendizaje? ¿O eficiencia también cuenta?

  • Los ensayos con ChatGPT eran más planos, repetitivos y predeciblesInteresante para trabajar en clase la creatividad, la voz propia y la expresión subjetiva frente al discurso fabricado. 

  • El cambio de condición en la sesión 4, pasar de IA a cerebro (o viceversa), permite detectar efectos cognitivos diferencialesÚtil para reflexionar sobre la dependencia, la transferencia y la plasticidad cognitiva. No solo debemos en el aula usar la IA y observar si funciona, sino también analizar la percepción previa que tiene de la IA y los modelos de uso que practica el estudiante, sus inercias, déficits y sesgos, el contexto...


Aspectos equívocos

Confusión entre menor actividad cerebral y menor aprendizaje

Menor conectividad no siempre equivale a menor esfuerzo o aprendizaje. Puede indicar automatización, familiaridad o eficiencia. Se necesita un marco más complejo para interpretar los datos.

El estudio interpreta que cuando los participantes usan ChatGPT y muestran menor conectividad cerebral (medida con EEG), eso significa menor esfuerzo cognitivo y por tanto menor aprendizajePero esto ignora un principio básico de la neurociencia cognitiva:

Más activación no siempre equivale a mejor rendimiento o mayor aprendizaje. A veces, el cerebro está más activo porque está confundido, sobrecargado o ineficiente.

Por ejemplo, un principiante en matemáticas muestra mucha más actividad cerebral resolviendo una ecuación que un experto. ¿Significa que está aprendiendo más? No necesariamente: el experto piensa menos porque ya ha automatizado procesos.

Cuando usamos herramientas —como una calculadora, un buscador o ChatGPT— se produce lo que algunos llaman externalización cognitiva. El cerebro distribuye carga mental fuera de sí mismoEsto puede ser negativo, si evitamos pensar, o positivo, si nos permite liberar espacio para pensar mejor, no solo más.

El estudio interpreta cualquier descenso de activación como una pérdida, cuando en realidad podría reflejar automatización de tareas, reducción de esfuerzo innecesario, focalización más precisa u optimización de recursos mentales.

Por otro lado, el EEG mide actividad eléctrica superficial del cerebro, especialmente en la corteza. Pero:

  • No detecta bien la actividad profunda (como la del hipocampo, crucial para la memoria).

  • No discrimina entre tipos de esfuerzo cognitivo (memoria, atención, creatividad, etc.).

  • Puede registrar más actividad simplemente porque la persona está dando vueltas sin avanzar.

Así que decir “actividad baja = estás pensando menos = estás aprendiendo menos” es tan reduccionista como decir que si sudas más, estás haciendo bien deporte.

Aceptar esta equivalencia sin matices puede llevar a conclusiones erróneas como: 

  • "La IA te vuelve más tonto porque hace que pienses menos" 
  • "Lo bueno es que te cueste mucho."
  • "Si es fácil, no estás aprendiendo" 
Esto va en contra de décadas de pedagogía basada en andamiajes, apoyos y mediación inteligente. Equivale a penalizar el uso estratégico de herramientas cognitivas. 

Lo interesante no es si la IA aligera la carga, sino cómo se usa para potenciar el pensamiento.

¿Qué enfoque sería más idóneo? Medir aprendizaje real, no solo activación cerebral: ¿Qué recuerdan? ¿Qué transfieren? ¿Cómo piensan después? ¿Cómo mejoran con el tiempo? Analizar la interacción entre cerebro, herramienta y estrategia. No basta con medir lo que hace el cerebro: hay que observar qué uso se hace de la IA y con qué intención. 

Interpretar los datos con modelos pedagógicos complejos, no solo con visión mecanicista del esfuerzo.


IAG en edades tempranas: ¿riesgo de atrofia o oportunidad de andamiaje?

Aunque este estudio puede generar equívocos, suscita reflexión en relación al uso de la IAG en edades tempranas, hasta la Secundaria, con estudiantes que aún no tienen destrezas cognitivas asentadas.

En Secundaria y etapas previas, las destrezas cognitivas aún están en formación. Todo eso no está automatizado: se está construyendo. Por tanto, la relación con la IA es distinta: puede ser tanto una muleta útil como un reemplazo peligroso. 

El riesgo: atajos antes de tener mapa mental. Si el alumnado usa ChatGPT como respuesta inmediata, sin desarrollar capacidad de duda, criterio propio, estructura argumentativa básica, memoria conceptual, entonces la IA puede consolidar la superficialidad antes de que se haya formado la profundidad. 

Un cerebro en construcción que aprende a delegar antes de ejercitar puede habituarse a no pensar. Pero la solución no es prohibir la IAG. Es enseñar a usarla como herramienta metacognitiva

En edades tempranas, lo importante no es cuánto les ayuda, sino cómo la usan: ¿La usan para pensar mejor o para no pensar? ¿La cuestionan, dialogan con ella, la editan? ¿Son conscientes de lo que saben y lo que no? ¿Son capaces de reconstruir lo que han generado? Aquí es donde el docente se convierte en mediador clave, no en guardián del teclado. La metáfora del andamio de Vygotsky. La IA puede funcionar como una escalera que te eleva a zonas de desarrollo próximo, permitiendo aprender lo que solo no podrías. O una cinta transportadora que te lleva sin caminar, y por tanto sin muscular tu pensamiento. La diferencia no está en la herramienta, sino en la intención pedagógica con la que se usa

La reducción de la actividad cerebral observada en adultos expertos puede tener múltiples lecturas, como ya hemos dicho, pero en estudiantes de Secundaria y etapas anteriores, donde el pensamiento aún se está moldeando, la pregunta no es cuánta carga cognitiva tienen al usar la IA, sino: ¿Están aprendiendo a pensar... o a que otro piense por ellos? Y ahí, la responsabilidad no es de ChatGPT. Es del ecosistema educativo que lo introduce sin estrategia o lo prohíbe sin reflexión.


Evaluar la IAG sin mediación del docente es como medir el valor de un microscopio sin enseñar a mirar por él

En este experimento, no hay diseño didáctico, ni intencionalidad formativa, ni contexto educativo real. No podemos evaluar el valor educativo de una herramienta sin un marco pedagógico que la oriente.

El docente desaparece, produciéndose un aprendizaje sin guía, sin contexto, sin retroalimentación. El experimento pone a los estudiantes a escribir un ensayo con ChatGPT sin presencia de un docente que contextualice la tarea, ayude a interpretar lo generado, fomente la autorregulación, promueva la crítica o la reescritura. 

Eso no es educación, es exposición asistida a una herramienta. No hay diseño instruccional: la IA se usa como fin, no como medio. En el estudio, ChatGPT se convierte en una herramienta de producción directa, sin función formativa.

  • No hay secuencia de aprendizaje. 
  • No hay objetivos didácticos. 
  • No hay rúbricas formativas ni procesos iterativos. 

¿Cómo va a evaluarse el valor educativo de una herramienta que no se usa como parte de una estrategia educativa real? 

Además, hay una falta de adaptación al nivel, necesidades e intereses del estudiante. Todos los participantes enfrentan la misma tarea con las mismas condiciones, sin diferenciación. Algo similar a la diferencia entre dar clase real a estudiantes reales y diversos y hacer una oposición o una PAU.

En un aula real, la IAG debería adaptarse al perfil del estudiante (dificultades, estilo cognitivo, lengua materna...). Ser mediada por el docente con intenciones claras: apoyar, retar, estimular, personalizar. Evaluar la IA fuera de ese ecosistema es como probar un libro sin lector. Se reproduce un modelo tecnocrático de IA: consumo pasivo en vez de construcción activa. El enfoque del estudio replica el modelo más superficial de uso de IA: El estudiante pide, la IA responde. Se pierde toda la riqueza que puede tener una IAG cuando se usa para cuestionar, comparar versiones, reescribir con intención, desmenuzar un argumento, dialogar con distintas perspectivas, integrar fuentes, estilos o tonos. Así, la IA refuerza la dependencia y el copia-pega. 

Con mediación pedagógica, la IA puede convertirse en un entorno de pensamiento asistido. El aula es un ecosistema complejo, no una cápsula experimental. En el aula, la IAG no debiera ser una cápsula cerrada, sino insertarse como una secuencia didáctica, una cultura de aula, un proyecto interdisciplinar, una relación afectiva con el docente, una red de evaluaciones, revisiones y metacognición. Sin ese marco, la experiencia con la IA es incompleta y artificial. 

Conclusión: Sin docente no hay aprendizaje significativo. Este estudio mide qué pasa cuando un estudiante se enfrenta solo a una IA. Pero eso no es lo que pasa en las aulas cuando la IAG se introduce con intencionalidad pedagógica. 


No se exploran beneficios potenciales de la IAG

El estudio parte de la hipótesis del daño cognitivo, pero no investiga posibles usos inteligentes, creativos o inclusivos. Falta una mirada más abierta al potencial formativo de la IA cuando se usa con propósito.

Esta es una de las lagunas epistemológicas más graves del estudio: parte de una hipótesis de déficit (“la IA empobrece el pensamiento”) y olvida lo más importante en educación: el potencial transformador del uso inteligente y con propósito de las herramientas. 

Cuando solo buscas daño, no verás el aprendizaje. El estudio parte de un marco de sospecha, no de descubrimiento. Desde el diseño experimental, la pregunta de fondo no es qué posibilidades educativas puede abrir el uso de la IAG si se introduce con intención, sino cuánto se apagan nuestros cerebros cuando la usamos. Esto condiciona todo el enfoque: Se mide esfuerzo, no comprensión. Se buscan síntomas de dependencia, no signos de empoderamiento. Se estudia el daño potencial, no la mejora estructural del aprendizaje. 

Es un experimento defensivo, no exploratorio ni propositivo. No se analiza ningún uso creativo, crítico o dialógico de la IA. La IA se usa en el estudio como un “oráculo de texto”: No se enseña a editar las respuestas. No se fomenta el diálogo reflexivo con la IA. No se permite combinarla con otros recursos (buscador, ideas propias, esquemas, etc.). 

En educación, lo interesante no es lo que la IA dice, sino lo que el estudiante hace con lo que la IA le aporta. El experimento, en ningún momento se plantea que la IA pueda apoyar a estudiantes con dificultades de escritura (disgrafía, dislexia, L2...), pueda ofrecer explicaciones adaptadas al nivel del alumno, pueda reducir barreras de acceso a la tarea, favoreciendo la participación de todos. 

Paradójicamente, se habla de cómo la IA "facilita demasiado", sin preguntarse: ¿Y si justo eso es lo que algunos estudiantes necesitan para empezar a participar? Ni rastro de pensamiento divergente o usos expresivos de la IAG. La IAG puede ayudar a reformular preguntas, simular voces o personajes filosóficos, construir argumentos contrarios, crear mapas conceptuales, generar esquemas, borradores, hipótesis, metáforas... Nada de eso aparece en el estudio. 

En pedagogía contemporánea (inclusiva, por proyectos, por competencias, etc.), una herramienta se valora por su capacidad de: expandir el pensamiento, aumentar la autonomía, generar reflexión, creatividad y diálogo. Este estudio se queda en qué deja de hacer el cerebro si usas esto, y no pregunta qué puede hacer el alumno que antes no podía con ayuda de esto.

La IA generativa no es solo una amenaza cognitiva, es también una oportunidad pedagógica. Pero el estudio ignora esta posibilidad por completo. Su diseño no permite explorar cómo la IA puede convertirse en un instrumento de ampliación cognitiva, de creación colectiva, de aprendizaje personalizado o de apertura expresiva

La IAG no debe usarse acríticamente. Pero evaluarla sin imaginación pedagógica es tan ciego como usarla sin ética.



Comentarios

  1. ¿Aprendo menos por usar inteligencia artificial? Mi experiencia en la Escuela 42

    Esta semana viví una experiencia que me dejó pensando mucho sobre cómo aprendemos hoy en día y qué papel tiene la inteligencia artificial en ese proceso.

    Me apunté a un curso intensivo de introducción a Python en la Escuela 42 de Telefónica. Para quienes no la conozcáis, es una formación sin profesorado, basada en el aprendizaje entre iguales, donde los propios compañeros corrigen los ejercicios. Una idea innovadora… pero que también me hizo toparme con prejuicios.

    Al entregar mi primer módulo, una compañera me corrigió y me dijo, de forma directa y poco amable, que “yo no estaba aprendiendo Python”, que solo usaba inteligencia artificial para hacer los ejercicios. Me suspendió. Y me sentí muy cuestionada y dolida, porque realmente sí estaba aprendiendo: no copiaba, preguntaba. No delegaba, comprendía. Utilizaba la IA como quien usa un libro, un tutorial, un profesor paciente que te explica paso a paso qué hace un comando y por qué.

    No quería repetir mecánicamente “mkdir” o “cd” sin entender qué hacían. Quería entender el proceso. Y la IA me ayudó a hacerlo.

    Días después leí un artículo del MIT que hablaba del posible impacto de la IA en el aprendizaje: advertía que, si se usa mal, puede reducir la actividad cerebral y fomentar la dependencia. Es cierto. Pero lo importante es cómo se usa. La IA no sustituye el esfuerzo; puede ser una herramienta que lo potencia. Como un mapa que te ayuda a no perderte, pero no camina por ti.

    Esta experiencia me ha reafirmado en algo: la inteligencia artificial no es el problema; el problema es no educar para usarla bien. No se trata de prohibirla, sino de enseñar a dialogar con ella, a sacarle partido, a no dejar de pensar.

    Yo no estaba “haciendo trampas”. Estaba aprendiendo. Y seguiré haciéndolo, con todas las herramientas que me ayuden a pensar mejor, no menos.

    ResponderEliminar
    Respuestas
    1. Gracias por leer el artículo y aportar tu experiencia personal. Un ejemplo de buen uso. Saludo.

      Eliminar
  2. Estimado Ramón, gracias por este análisis que haces del experimento referido, tanto como la acertada forma en que desmontas un estudio de origen sesgado. Sin duda la mediación pedagógica es clave en la forma en que estamos empleando el ChatGPT como otras IA para potenciar saberes y habilidades, en mi caso, Universitarias y relacionadas a la investigación: lectura y escritur académica. Tu análisis viene .iy oportuno para compartir con unos docentes en un curso que les imparto sobre estrategias para la lectur y escritura asistido por la IA. Si me lo permiten, será una fuente que compsrtires con ellos y otros colegas, al considerarlo muy oportuno y facilitados demasiado reflexión docente. Saludos.

    ResponderEliminar
    Respuestas
    1. Gracias por leer el artículo y aportar llevarlo como inspiración en tus formaciones. Todo tuyo. Saludo.

      Eliminar
    2. Magnífica y cuidada reflexión Ramón. Apoyo tu tesis y espero que la profesionalidad de nuestros colegas permita hacer un uso formativo retatador y crítico de la IAG más allá de lo obvio, promoviendo un aprendizaje en profundidad, que hoy tanto necesitan nuestros estudiantes...

      Eliminar
  3. Con todo, sí parece síntoma grave que los estudiantes no recordaran lo que habían escrito y tampoco lo reconocieran como propio. El resultado de tantos textos y productos hechos con IA me recuerdan el comentario del prof en el microrrelato de Mario Benedetti, "-Sulso pero pecable".

    ResponderEliminar

Publicar un comentario