La Inteligencia Artificial generativa, representada por chatbots avanzados, ha puesto en jaque los métodos tradicionales de evaluación académica. La discusión ya no es si los estudiantes de bachillerato la usarán, sino cómo la usarán de manera ética. Los expertos señalan que el camino es la transparencia y el pensamiento crítico, no la prohibición.
El periodista Pablo Rivas, a través de «Pablo 360», aborda este desafío equiparando a la IA con una calculadora avanzada. La clave está en la intención del estudiante: usar la IA para generar un trabajo completo es plagio, pero usarla para resumir o analizar y luego desarrollar su propia crítica es un uso inteligente y ético.
La Dra. Sarah C. Eaton, de la Universidad de Calgary, experta en integridad académica, ha promovido la norma de la «transparencia». Los estudiantes deben ser formados para informar a sus profesores cuándo y cómo han usado la IA. Rivas sugiere que los padres enseñen a sus hijos a citar a la IA como una fuente de ideas o resúmenes.
Para la OCDE, el futuro de la educación está centrado en la resolución de problemas complejos. La IA puede dar respuestas, pero el rol del estudiante es entender la estrategia y el proceso detrás de esas respuestas. El padre debe actuar como un vigilante de este proceso, asegurando que la IA sea un catalizador del aprendizaje y no un atajo.
En la etapa de primaria, la IA se presenta en tutores y juegos educativos. Aquí, la supervisión debe asegurar que el niño entienda el contenido y no solo complete la actividad. La meta es que el estudiante aprenda a cuestionar las respuestas y a verificar la información, sin importar su fuente.
El desafío de la integridad académica es una oportunidad para enseñar a los hijos sobre la ética del conocimiento. Los padres deben conversar abiertamente con sus hijos sobre las políticas de la escuela respecto a la IA y cómo pueden usarla para potenciar sus habilidades en lugar de disminuirlas.
No responses yet