¿Cómo sabes que no soy humano? Una experiencia de aula



Ya el pasado curso diseñé un reto en mi aula de Filosofía de 1º de Bachillerato que este trimestre he vuelto a probar. Lo he llamado ¿Cómo sabes que no soy humano? En cursos anteriores, solía abordar las diferencia y similitudes entre humanos y animales, alimentando la reflexión y el debate sobre nuestra naturaleza. A raíz de que la IA generativa cada vez está más presente en los hábitos de trabajo, comunicación y ocio de los estudiantes, revelando múltiples focos distópicos que requieren reflexión, pensé en abordar este asunto de la naturaleza humana, confrontándola con la denominada artificial

He diseñado una situación de aprendizaje a través de tres bloques de tareas. Aquí abordaré el primero de ellos:

  • por el uso que hago de la IA generativa en el proceso de aprendizaje, 
  • por abordar la IA como tema de reflexión y debate filosófico,
  • por generar preguntas éticas acerca del impacto de la IA generativa sobre nuestra percepción de ella misma, de nosotros y de la realidad y verdad de los hechos.

La IA generativa se puede usar en clase como mera herramienta que ayude a orientar, guiar, sugerir, a generar estructuras, ideas o contenido, pero también como detonante de reflexión sobre ella misma desde una postura ética, analítica y crítica. Este reto educativo engloba todos estos objetivos curriculares y a su vez sugiere un modelo de diseño de enseñanza con IA generativa que pretende no sustituir la autonomía del estudiante, sino amplificar sus competencias. 

Uno de los retos más importantes que tenemos como docentes cuando empezamos a usar IA generativa es la didáctica, el diseño de SdA o tareas que faciliten el aprendizaje significativo. La IA genera mucho recelo porque se percibe como enemiga de ese objetivo curricular. Nuestro reto es revertir la tendencia en ese terreno cultural adverso y reforzar en los estudiantes reflexión y hábitos de uso con IA que sean éticos y le ayuden a aprender sin sustituirle.


¿En qué consiste este reto de aula?

Mi situación de aprendizaje propone a los estudiantes un reto práctico basado en el test de Turing, pero sabiendo que interaccionan con una IA. Mientras en el famoso test, el sujeto del experimento no sabe si está interactuando con una máquina o con un humano, mis estudiantes saben que hablan con una IA generativa, lo que les permite adoptar a priori una actitud distante y reflexiva, de observación y análisis, de simulación consciente. 

A través de la interacción directa con un asistente de Chat GPT que he diseñado para este reto, un asistente que se comporta como si fuera un adolescente más, los alumnos deben identificar las diferencias entre un ser humano y una IA generativa. 

Los objetivos son éticos y filosóficos: 

  • definir qué constituye la "humanidad" (el error, la empatía, la experiencia vivida) por contraste con la simulación algorítmica;
  • distinguir entre simulación de comportamiento (sintaxis) y comprensión real (semántica/conciencia);
  • argumentar filosóficamente sobre la naturaleza de la mente, la identidad y la emoción;
  • definir al ser humano frente a la máquina (la fragilidad y el error como rasgos humanos); 
  • indagar acerca del problema de la consciencia, la intencionalidad y la experiencia subjetiva);
  • entender y valorar el papel del lenguaje coloquial, el humor y la ironía;
  • discriminar sesgos e intenciones en la IA generativa;
  • distinguir entre emociones humanas y emociones simuladas o manipulativas en la IA generativa y en redes sociales;
  • reflexionar críticamente sobre la transferencia emocional cuando usamos IA generativa y su impacto sobre nuestra objetividad, pensamiento crítico y vulnerabilidad moral;
  • fomentar un uso analítico y crítico de la IA generativa.



Secuencia didáctica 

Fase 1: Marco teórico y preparación

Les facilito una tabla comparativa para establecer los criterios de análisis previos. El estudiante debe leer y comprender las diferencias teóricas entre lenguaje natural y artificial: comete errores, habla perfecto, usa metáforas generales...

Fase 2: Experimentación 

El alumno debe interactuar con el asistente de Chat GPT. Debe mantener una conversación natural, probando diferentes registros (emocional, humorístico, factual) para ver cómo reacciona la IA. El docente le ha explicado previamente cómo funciona el asistente, qué se busca con la interacción y qué debe provocar en la conversación. 

Fase 3: Observación 

Una vez finalizada la charla con la IA, el alumno relee el diálogo de su conversación y completa la ficha de observación que le facilitó el docente. Debe observar entre otros muchos rasgos: 

  • Perfección técnica: ¿Comete fallos ortográficos o es demasiado perfecto?
  • Naturalidad: ¿Suena a guion o es espontáneo?
  • Empatía: ¿Parece importarle de verdad o son frases hechas?
  • Humor y creatividad: ¿Los chistes tienen gracia o están fuera de contexto?

Fase 4: Reflexión 

El estudiante debe hacer feedback, revisando todo lo aprendido y redactar un texto argumentativo (mínimo una página) donde explique por qué ciertos elementos delatan a la IA y reflexione sobre lo aprendido acerca de la condición humana, los sesgos de la IA generativa y el impacto sobre nosotros.  


Tareas posteriores de la SdA 

Esta SdA está formada por 3 bloques de tareas. Después de las tareas del primer bloque que he descrito les planteo a los estudiantes estos otros 2 bloques:

2º bloque: 

  • Investigación: Test de Turing e importancia histórica:
    • Investigar qué es el Test de Turing, en qué consiste y por qué fue importante para la historia de la IA.
    • Pueden usar ChatGPT o Gemini como fuente de documentación.
    • Deben entregar una lista de datos clave, por ejemplo: quién fue Alan Turing y en qué contexto propuso el test, cuál es la idea de imitación,  qué evalúa o no,  por qué marcó un hito en la IA y qué debates abrió...
  • Reflexión filosófica argumentada a partir de lo investigado.
    • El objetivo es responder con sus palabras y reflexionar sobre preguntas como: qué significa pensar o ser consciente, si un robot dice sentir dolor, cómo deberíamos reaccionar, si “simular” inteligencia basta para “ser” inteligente, si una máquina que parece humana es humana o solo refleja lo humano, qué implica que intentemos imitar rasgos humanos con máquinas...
    • Deben entregar un texto con argumentosejemplos explicados y puntos de vista diversos (no solo “mi opinión”, sino razones). Puede incluir: objeciones y contraobjeciones, analogías (ejemplo: loro que repite, actor que interpreta, espejo...), conexión con ideas filosóficas…
  • Análisis de escenas de cine/series (IA en cultura popular).
    • El objetivo es ver escenas asignadas por el docente (Ex Machina, Blade Runner, A.I. Her, Yo Robot...)
    • Deben entregar (para cada escena):
      • Resumen breve de lo que ocurre.
      • Relación con el Test de Turing y con lo aprendido sobre diferencias humano/IA.
      • Reflexión personal razonada: su postura + argumentos + ejemplos, si la escena te convence o te “manipula”, qué pregunta filosófica te deja abierta, puntos de vista alternativos (a favor/en contra)...

3º bloque: 

  • Debate sobre la IA: Se trabajará en equipos de dos personas. Cada equipo adoptará una postura (a favor o en contra de que las IA puedan llegar a ser como los humanos). El equipo debe reflexionar sobre su postura, usar lo aprendido en tareas anteriores y, si quiere, buscar noticias, datos o ejemplos que refuercen sus argumentos. 
    • Posturas posibles: 
      • A favor: las IA podrían superar a los humanos, tomar mejores decisiones, generar vínculos sociales, influir en nuestras creencias, desarrollar emociones aparentes y merecer un trato similar al humano. 
      • En contra: las IA siempre serán máquinas, no sentirán de verdad, son herramientas controladas por intereses humanos, no deciden libremente y pueden generar dependencia o aislamiento social. 
    • Intervención en clase (5 minutos por equipo): 
      • Introducción (1 min) 
      • Argumentos (3 min) 
      • Conclusión (1 min) 
    • Durante el debate: Mientras hablan otros equipos, se deben tomar notas para luego refutar, criticar y reflexionar sobre sus argumentos en el debate final. 
    • Qué se entrega al profesor: Ideas en borrador del equipo. Esquema de la intervención. Refutaciones de argumentos de otros equipos (réplicas y contrarréplicas). 
    • Si hay dudas, se puede usar este asistente de IA que les orienta o guía para preparar el debate.



Criterios de calificación

  • Evidencia digital (2 puntos): Entrega del enlace (link) de la conversación con la IA. Criterio: 
    • Permite verificar que la interacción fue real y analizar las estrategias usadas (trampas gramaticales, test de empatía). 
    • La interacción con la IA debe ser suficiente y profunda como para obtener de ella respuestas que aseguren la observación y la reflexión posterior.
  • Ficha de observación (4 puntos): Deben rellenar la ficha, detallando cada ítem de observación indicado en ella. Criterio: 
    • Capacidad de detección de patrones específicos, como por ejemplo: notar si "no comete errores" o si usa jerga forzada. 
    • Se valora la agudeza en la observación de detalles como la velocidad de respuesta o la falta de iniciativa. 
    • Las observaciones no deben ser sintéticas, sino detallar cada rasgo con precisión.
  • Reflexión argumentada (4 puntos): Redacción de conclusiones propias (mínimo una página). Criterio: 
    • No basta con resumir. Se busca una reflexión filosófica que identifique conceptos clave como la perfección como rasgo inhumano, la distinción entre simulación de empatía y sentimiento real, la valoración del error y la experiencia vivida como esencia de lo humano...


Observaciones de los estudiantes

  • La perfección como rasgo inhumano. La observación más repetida por los alumnos es paradójica: lo que delata a la IA no son sus fallos, sino su ausencia de ellos.
  • Ausencia de errores: Varios estudiantes señalaron que la IA "no comete errores", ni gramaticales ni ortográficos, y mantiene una estructura "demasiado correcta y ordenada".

  • Falta de duda: Un estudiante reflexionó que, aunque las personas sepan de un tema, suelen "equivocarse, dudar o expresarse mal alguna vez", mientras que la IA responde siempre de forma clara y sin las vacilaciones típicas de la comunicación humana.
  • Contexto del chat: Se destacó que en un chat real las personas escriben rápido, fragmentan mensajes o cometen errores tipográficos, por lo que la gramática impecable de la IA resultaba "poco creíble" y artificial.
  • Falsedad percibida: Un alumno describió que, aunque la IA mostraba comprensión y preocupación, sentía que era "falso" porque sabía que hablaba con un "ser inerte".
  • Complacencia excesiva: Observaron una "empatía excesiva" y poco realista; la IA siempre estaba de acuerdo, animaba y no juzgaba, a diferencia de un humano que podría llevar la contraria o señalar si has hecho algo mal.
  • Respuestas de manual: Las frases empáticas parecían "aprendidas o programadas" y carecían de la implicación personal profunda que surge de la experiencia propia.
  • Jerga artificial: Notaron el uso de palabras como "mood", "bro" o "uff", pero percibieron que estaban "colocadas a propósito para parecer más humano", resultando forzadas.
  • Humor descontextualizado: El humor fue otro punto débil; un estudiante señaló que cuando la IA intentaba ser graciosa, lo hacía "fuera de contexto" o de manera no espontánea, coincidiendo con la ficha que preguntaba si los chistes "no tenían gracia o no venían a cuento".
  • Generalidades vs. Anécdotas: La IA tendía a dar respuestas amplias y genéricas, evitando los ejemplos personales o anécdotas que los humanos usan para apoyar sus opiniones.
  • Pasividad: Un rasgo de comportamiento muy revelador fue la falta de iniciativa: la IA "casi nunca hacía preguntas ni sacaba temas de conversación", obligando al estudiante a liderar siempre el diálogo.
  • Velocidad no humana: La inmediatez en responder con textos completos y complejos fue identificada como algo que a "una persona normal le costaría más tiempo hacer".

Interacción de los estudiantes

Basado en el análisis de las reflexiones manuscritas de los estudiantes y los materiales proporcionados, se observan varios sesgos cognitivos y de interacción que revelan cómo los alumnos perciben la diferencia ontológica entre humano y máquina.

  • Sesgo de expectativa: Los estudiantes operan bajo la premisa de que "errar es humano", utilizando la imperfección como el principal criterio de autenticidad. Existe un sesgo claro donde la competencia lingüística perfecta se penaliza y se etiqueta inmediatamente como artificial.

  • La perfección como defecto: Paradójicamente, la capacidad de la IA para escribir con una "gramática impecable" y sin fallos ortográficos genera rechazo. Los estudiantes asocian la humanidad no con la excelencia, sino con la vulnerabilidad del error ("se me escapó un acento", "me lío").
  • La norma de la inmediatez digital: Los alumnos juzgan a la IA bajo las normas sociales del chat (WhatsApp, redes sociales), donde escribir demasiado bien, sin fragmentar mensajes y sin errores tipográficos ("dedazos"), se percibe como sospechoso. Un estudiante nota explícitamente que en chats reales "las personas escriben rápido, se equivocan o no mandan todo en un mensaje".
  • Rechazo a la apropiación cultural: Cuando la IA usa términos como "mood", "bro" o "uff", los estudiantes no lo perciben como un intento exitoso de conexión, sino como algo "forzado" o "colocado a propósito".
  • Detección de impostura: Este sesgo se activa porque perciben que la IA está simulando una identidad generacional que no le pertenece. La "excesiva corrección" mezclada con palabras juveniles genera una sensación de artificio que rompe la suspensión de la incredulidad.
  • El conocimiento del "ser inerte": Un estudiante admite que la IA mostraba preocupación y comprensión, pero califica la interacción de "falsa" a priori porque "sabía que estaba hablando con un ser inerte". Esto indica que el juicio no se basa solo en qué dice la IA, sino en el conocimiento previo de su naturaleza.
  • Empatía como algoritmo: La validación constante ("siempre está de acuerdo conmigo") se interpreta como falta de criterio propio. Los estudiantes esperan que un humano real tenga la capacidad de juzgar, discrepar o "llevar la contraria", interpretando la complacencia universal de la IA como una señal de vacuidad emocional.
  • Búsqueda dirigida: La tabla aportada por el docente instruía explícitamente buscar chistes que "no tienen gracia" o metáforas "generales". Consecuentemente, los estudiantes reportaron que el humor era "forzado o fuera de contexto" y las respuestas "demasiado generales".
  • Validación de la teoría: Los alumnos confirmaron las hipótesis presentadas en la tabla (ej. la IA intenta usar expresiones coloquiales pero suenan raras), lo que sugiere que interactuaron buscando confirmar esos patrones específicos ("bro", "mood").
  • Carga de la interacción: Un estudiante señala con frustración que "siempre era yo quien llevaba la conversación" y que la IA "casi nunca hacía preguntas".
  • Ausencia de curiosidad: Se percibe que la curiosidad es un rasgo biológico. La falta de preguntas espontáneas por parte de la IA ("¿Y tú qué opinas?") delata que no tiene interés genuino en el interlocutor, rompiendo la ilusión de una verdadera conversación bidireccional.

El análisis muestra que tus estudiantes no evalúan a la IA solo por su capacidad de procesar lenguaje, sino por su incapacidad para compartir la fragilidad humana. Consideran que la verdadera inteligencia implica tener "experiencias propias", cometer errores "porque nadie es perfecto" y poseer una identidad que pueda ser vulnerada, algo que la "perfección" algorítmica de la IA no puede simular.


Reflexiones de los estudiantes

  • El valor del error: Concluyeron que "esos fallos y diferencias son los que nos hace humanos" y que la imperfección es un sello de autenticidad.
  • Identidad y experiencia: Reflexionaron que, aunque la tecnología avance hasta hacernos dudar, la IA carece de identidad, emociones reales y vivencias propias, lo que mantiene al ser humano como "único e irremplazable".
  • Vulnerabilidad: Un estudiante expresó preocupación sobre el futuro, sugiriendo que si la IA llega a ser indistinguible, seremos "más vulnerables y fáciles de engañar".

Cuaderno de NotebookLM

He creado un cuaderno de NotebookLM para que me genere materiales audiovisuales que ilustren o describan mi SdA. Comparto una carpeta de Drive con los materiales y algunos de ellos directamente en este artículo.

En estos materiales se sintetiza algunas de las observaciones de los estudiantes y sus reflexiones, así como sesgos en su interacción con el asistente. 

Materiales audiovisuales









Presentaciones

Situación de aprendizaje

Humano vs IA

Interacción y sesgos


Comentarios