1. ¿Qué tiene de disruptivo ChatGPT?
Lo disruptivo de ChatGPT no es solamente su sofisticación técnica, sino el hecho de haber puesto la IA generativa al alcance de millones de personas de manera inmediata, conversacional y cotidiana.
Hasta su irrupción pública, buena parte de estas discusiones pertenecían al terreno de la prospectiva o de los laboratorios. Con ChatGPT, en cambio, una tecnología capaz de redactar, resumir, argumentar, traducir, planificar y simular intercambios complejos ingresó de lleno en la vida diaria.
En ese sentido, la disrupción no fue solo informática: fue cultural, porque alteró de golpe la relación social con la producción de conocimiento y con la idea misma de autoría. En educación, su impacto fue todavía más profundo porque interpeló el sistema completo: la planificación, las consignas, la evaluación, la resolución de tareas, el lugar del docente y el sentido del producto final. Pero ahí también aparece un riesgo conceptual importante: seguir identificando IA (solo) con ChatGPT. Es una simplificación problemática. ChatGPT es una puerta de entrada muy visible, pero el ecosistema de inteligencia artificial es mucho más amplio. El desafío educativo no es quedar capturado por una marca o por una herramienta, sino desarrollar criterio para valorar qué recurso sirve, para qué propósito, en qué contexto y con qué límites.
Por eso, cuando hablamos de inteligencia artificial, deberíamos dejar de asociarla únicamente a una herramienta y asumir que estamos ante un cambio de paradigma. No se trata solo de incorporar un recurso nuevo, sino de comprender que están cambiando las formas de acceder al conocimiento, de producirlo, de validarlo y de ponerlo en circulación. Y hay una complejidad adicional: no observamos este proceso desde afuera. Lo estamos viviendo mientras ocurre. Es decir, no somos solo testigos de una transformación histórica, sino también protagonistas de ella. Esa doble condición exige una actitud especialmente consciente: entender que no alcanza con usar la IA, sino que necesitamos interpretarla, discutirla y decidir qué lugar darle en la educación y en la cultura.
2. La IA ¿puede generar una nueva cultura de aprendizaje? ¿En qué consiste?
Es una pregunta interesante porque se trata de una aspiración de hace décadas en la educación. La respuesta inicial sería: sí, puede contribuir a una nueva cultura de aprendizaje. Pero para evitar que se la tome como “la” solución a esta eterna búsqueda, es importante agregar que ese cambio debería ser primero educativo y luego tecnológico. Es decir, la IA puede aportar a una dinámica de aprendizaje, pero no porque produzca por sí sola una transformación mágica, sino porque obliga a revisar cómo entendemos hoy enseñar y aprender. Esa nueva cultura no consiste en delegar el conocimiento en la máquina, sino en “inteligenciar la educación artificial”: poner en cuestión prácticas desvinculadas de la realidad, rutinas escolares mecanizadas y formatos de enseñanza que ya venían mostrando límites antes de la IA. La novedad no está únicamente en usar una herramienta nueva, sino en repensar el aprendizaje como un proceso más activo, más reflexivo, más situado y más consciente de sus mediaciones tecnológicas.
En esa cultura, aprender deja de ser solo recibir y repetir información para pasar a comparar, interpretar, validar, crear, dialogar críticamente con fuentes y herramientas. La IA puede ampliar posibilidades de personalización, exploración y retroalimentación, pero lo decisivo es que esa ampliación esté orientada por una pedagogía con sentido. Por eso, cuando hablo de una nueva cultura de aprendizaje, me refiero a una educación menos artificial y plenamente capaz de formar sujetos que comprendan, produzcan y cuestionen en contextos crecientemente mediados por algoritmos. Y en ese proceso, la IA es una interesante nueva oportunidad para lograrlo.
3. ¿Transformar la educación desde la tecnología o transformar la tecnología desde la necesidad educativa?
La prioridad, a mi juicio, debe ser transformar la tecnología desde la necesidad educativa. Dicho de otro modo: no empezar por la herramienta, sino por la pregunta pedagógica. Cuando una institución adopta una tecnología porque “innova”, “ahorra tiempo” o “está de moda”, pero no puede explicar qué aprendizaje quiere promover con ella, se invierte la lógica. Entonces ya no es la educación la que orienta a la tecnología, sino la tecnología la que termina definiendo la tarea. Esa inversión es uno de los problemas más frecuentes de las agendas de innovación.
Eso no significa negar que la tecnología también modifica el escenario y obliga a repensar la educación. Lo hace, y de manera profunda. Pero justamente por eso hace falta una conducción pedagógica clara. Primero hay que definir qué vale la pena enseñar, qué experiencias cognitivas se quieren construir, qué criterios de evaluación tienen sentido y qué condiciones de equidad deben preservarse. Recién después corresponde decidir qué tecnología aporta algo real. La transformación educativa no puede ser derivada de la novedad técnica; tiene que partir de una necesidad formativa y convertir a la tecnología en recurso, no en mandato.
Sin embargo, aun cuando en el plano teórico suele haber bastante acuerdo con esta idea -desde hace décadas-, en la práctica persisten formulaciones como “la IA va a transformar la educación”, que vuelven a colocar el cambio en la herramienta y no en las decisiones pedagógicas, institucionales y políticas que deberían orientarla. Esa mirada instrumental sigue muy presente y se advierte también en otros debates, como el del teléfono celular en las aulas. Allí, muchas veces, la discusión se concentra en el aparato, como si el problema pudiera reducirse al objeto, cuando en realidad lo que ese objeto deja en evidencia son tensiones más profundas: el vínculo con el conocimiento, la atención, la autoridad pedagógica, el sentido de las propuestas didácticas y la capacidad de la escuela para revisar sus propios formatos. Por eso, más que adoptar tecnologías aisladas a medida que surgen, lo que necesitamos es fortalecer la capacidad de la educación para leer qué problemas estructurales -muchas veces incómodos- se vuelven visibles a través de ellas.
4. ¿Cómo abordamos el plagio y la integridad académica en la era de la IA?
Lo primero que conviene decir es que el plagio no nació con la inteligencia artificial. Es un problema histórico de la cultura académica, anterior a ChatGPT y a cualquier modelo generativo.
Lo que cambia ahora es la escala, la velocidad y la complejidad con la que puede producirse texto aparentemente original. Por eso, si seguimos abordándolo solo con categorías previas, corremos el riesgo de no entender del todo el problema nuevo. Ya no alcanza con discutir copia sí o copia no: necesitamos nuevos consensos sobre autoría, uso legítimo de herramientas, transparencia en los procesos y criterios para distinguir delegación del pensamiento de producción genuina mediada por IA. En otras palabras, la integridad académica ya no puede pensarse solo como defensa del producto individual, sino como una cultura de responsabilidad intelectual en un escenario donde la IA también participa en la producción de conocimiento. En ese marco, los detectores de plagio o de texto generado por IA no resuelven el problema de fondo, y además presentan límites importantes. Incluso las empresas que los proponen advierten que su detección “puede no ser siempre precisa” y que no debe usarse como única base para tomar medidas adversas contra un estudiante; además, reconoce mayor incidencia de falsos positivos en ciertos rangos de detección. A eso se suman evidencias que muestra falsos positivos, falsos negativos y problemas de equidad, especialmente con poblaciones estudiantiles diversas. Hay, entonces, una paradoja que la educación debería claramente evitar: querer resolver un problema de desconfianza en la tecnología con otra tecnología que tampoco genera suficiente confianza para decidir por sí sola.
Por eso, más que reforzar una lógica de vigilancia, necesitamos repensar la evaluación. La IA deja al descubierto falencias que el sistema arrastra desde hace tiempo: consignas fácilmente automatizables, evaluaciones centradas en la reproducción, desconexión entre teoría y práctica. Si una herramienta puede resolver una tarea en segundos, muchas veces no está “arruinando” una buena evaluación, sino exponiendo una evaluación ya debilitada y descontextualizada. El desafío, entonces, es diseñar experiencias donde el aprendizaje no se juegue solo en el producto final, sino en el proceso: bitácoras, versiones sucesivas, defensa oral, explicitación del uso de IA, comparación crítica de respuestas, justificación de decisiones y reflexión metacognitiva. Se trata de pasar de controlar la trampa a construir evidencias más ricas de comprensión, y de repensar la evaluación para potenciar —no negar— el aprendizaje mediado por inteligencia artificial.
5. ¿La IA hará obsoletos a los docentes?
No. Lo que sí puede volver obsoletas la IA son ciertas funciones reducidas de la docencia, especialmente aquellas centradas casi exclusivamente en transmitir información o verificar su reproducción. Pero la docencia, entendida como mediación humana, diseño de experiencias de aprendizaje, interpretación de contextos, acompañamiento intelectual y ético, y toma de decisiones pedagógicas, no desaparece. Al contrario: en un entorno saturado de automatización, esa dimensión se vuelve más estratégica.
Ahora bien, afirmar que la IA no reemplazará al docente no alcanza si no se revisan también las condiciones reales del trabajo docente. No se trata solo de pedir adaptación individual. La profesión necesita reconfigurarse: tiempos, espacios, reconocimiento, formación continua, trabajo colaborativo, criterios de evaluación y condiciones institucionales. Si todo eso no cambia, la presión tecnológica puede reforzar el voluntarismo y la desigualdad. Por eso, el problema no es si el docente será reemplazado, sino si el sistema está dispuesto a fortalecer la docencia como profesión compleja en un contexto nuevo, transformando estructuras en algunos casos de raíz.
Tampoco se trata de idealizar la respuesta y afirmar como única variante que “lo humano nunca va a ser reemplazado”. Aunque esa afirmación pueda sostenerse en varios aspectos, planteada de ese modo corre el riesgo de simplificar un problema mucho más complejo. La discusión no debería organizarse como un contrapunto entre humanidad y tecnología, como si se tratara de elegir un bando, sino como una oportunidad para repensar el rol docente en un escenario que cambió. La pregunta relevante no es si la IA compite con el docente en abstracto, sino qué dimensiones de la tarea se redefinen, cuáles se fortalecen, cuáles pierden centralidad y qué nuevas capacidades profesionales pasan a ser indispensables.
Gracias Pedro.
Perfil de Pedro Figueroa: AI y Educación. Orador TEDx. Global Teacher Award 2021. Directivo. Profesor Universitario. Comunicador. Investigador. Asesor educativo.
Sé el primero en comentar