Editorial

¿Quién aprende y quién evalúa? Reflexiones sobre los dilemas éticos de la evaluación en la era de la inteligencia artificial

Julieth S. Alzate
Universidad Autónoma Latinoamericana, Colombia

Revista Visión Contable Universidad Autónoma Latinoamericana

Universidad Autónoma Latinoamericana, Colombia

ISSN: 0121-5337

ISSN-e: 2539-0104

Periodicidad: Semestral

núm. 31, 2025

revista.visioncontable@unaula.edu.co



DOI: https://doi.org/10.24142/rvc.n31a1

Universidad Autónoma Latinoamericana Facultad de Contaduría Pública

Sugerencia de citación: Alzate, J.S. (2025). ¿Quién aprende y quién evalúa? Dilemas éticos de la evaluación en la era de la inteligencia artificial. Revista Visión Contable, 31, pp. 5-8. https://doi.org/10.24142/rvc.n31a1

En la última década, la educación superior ha enfrentado cambios disruptivos impulsados por la digitalización, la virtualización del aprendizaje, así como la irrupción de la inteligencia artificial (IA). La aparición de sistemas generativos ha transformado radicalmente la manera en que los estudiantes acceden, procesan y producen información (Kasneci et al., 2023). Estos avances han abierto nuevas posibilidades pedagógicas, pero también han generado una preocupación creciente por los dilemas éticos que surgen en torno a la evaluación académica.

La evaluación, concebida como un proceso integral que permite valorar las competencias, conocimientos y actitudes de los estudiantes, se encuentra en un momento de profunda revisión (Boud & Falchikov, 2007). Tradicionalmente, los mecanismos de evaluación han buscado garantizar justicia, transparencia y confiabilidad. Sin embargo, en un escenario donde los estudiantes pueden apoyarse en sistemas automatizados para redactar ensayos, resolver problemas matemáticos o incluso simular razonamientos críticos, surgen cuestionamientos éticos en torno a la autenticidad del aprendizaje, la autoría intelectual y la integridad académica (Cotton et al., 2023).

Históricamente, la evaluación académica ha estado vinculada a pruebas escritas, exámenes orales, trabajos de investigación y proyectos aplicados. Con la llegada de la IA generativa, estas transformaciones se han acelerado y complejizado. Actualmente, los estudiantes pueden apoyarse en herramientas que: redactan escritos, resuelven problemas en matemáticas, física o programación; traducen y resumen textos académicos de manera inmediata; producen código informático en diferentes lenguajes de programación, entre otras (Alzate,2024).

Paralelamente, la IA se ha incorporado al propio proceso evaluativo mediante sistemas de retroalimentación automática, detectores de plagio y algoritmos de learning analytics que permiten personalizar el seguimiento del estudiante (Luckin et al., 2016). Estas prácticas abren un panorama complejo donde conviven la oportunidad de innovación pedagógica y el riesgo de erosión de la integridad académica.

Uno de los principales dilemas éticos en el uso de IA es la duda sobre la validez de la evaluación como reflejo del aprendizaje real. Si un ensayo, código o reporte es producido con fuerte apoyo automatizado, ¿puede considerarse evidencia genuina de las competencias adquiridas por el estudiante? (Smutny & Schreiberova, 2020). Este dilema afecta directamente la credibilidad de los procesos de certificación académica y, en consecuencia, la confianza de la sociedad en las instituciones educativas.

Como posible medida de control, algunas instituciones han recurrido a sistemas de vigilancia digital, como detectores de IA o software de supervisión, con el fin de salvaguardar la integridad académica. No obstante, estos mecanismos suscitan debates éticos relacionados con la privacidad, la presunción de culpabilidad y la posibilidad de falsos positivos que pueden dañar la reputación estudiantil (Susnjak, 2022). Además, colocan a los estudiantes en un escenario de desconfianza que puede afectar la relación pedagógica.

Frente a estos dilemas, las universidades han adoptado distintas posturas. Algunas promueven un enfoque integrador que busca desarrollar competencias críticas en los estudiantes, reconociendo que la IA formará parte de sus contextos profesionales. En el plano internacional, organismos como la UNESCO (2023) han recomendado avanzar hacia políticas educativas que integren la IA de manera ética, asegurando la transparencia y el respeto a los derechos humanos. Esto implica repensar los criterios de evaluación, adaptándolos a nuevas realidades.

Entre las estrategias más destacadas se encuentran aquellas que integran el aprendizaje experiencial como: 1) la evaluación basada en proyectos para fomentar la integración de múltiples competencias y reducir el riesgo de delegar todo el proceso a la IA, 2) las evaluaciones orales y dialógicas, 3) los portafolios digitales reflexivos y 4) el aprendizaje-servicio y experiencias prácticas, con el fin de vincular la evaluación con contextos reales donde la intervención humana es insustituible. Estas respuestas buscan equilibrar la innovación pedagógica con la necesidad de preservar la integridad y legitimidad de la evaluación académica.

En el empleo de esta y otras estrategia, la IA más que una amenaza, la IA puede concebirse como una oportunidad para transformar la evaluación en un proceso más participativo, transparente y formativo. Para ello, se requiere un diálogo institucional y pedagógico que trascienda la lógica del control y se centre en la construcción de competencias éticas y digitales. De este modo, en un futuro cercano, la evaluación académica no consistirá en “ganarle” a la IA, sino en aprender a convivir críticamente con ella, garantizando que la tecnología potencie y no sustituya la agencia humana.

Referencias

Alzate, J.S. (2024). Transformación digital: Reflexiones sobre el rol de la inteligencia artificial en la contabilidad y administración. Revista Visión Contable, 30, pp. 5-8 https://doi.org/10.24142/rvc.n30a1

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623. https://doi.org/10.1145/3442188.3445922

Boud, D., & Falchikov, N. (2007). Rethinking assessment in higher education: Learning for the longer term. Routledge.

Cotton, D., Cotton, P., & Shipway, J. (2023). Chatting and cheating: Ensuring academic integrity in the era of ChatGPT. Innovations in Education and Teaching International, 60(2), 111–122. https://doi.org/10.1080/14703297.2023.2190148

Kasneci, E., Sessler, K., Kitchenham, B., & Kasneci, G. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences, 103, 102274. https://doi.org/10.1016/j.lindif.2023.102274

Luckin, R., Holmes, W., Griffiths, M., & Forcier, L. B. (2016). Intelligence unleashed: An argument for AI in education. Pearson Education.

Selwyn, N. (2023). Education and technology: Key issues and debates (3rd ed.). Bloomsbury.

Smutny, P., & Schreiberova, P. (2020). Chatbots for learning: A review of educational chatbots for the Facebook Messenger. Computers & Education, 151, 103862. https://doi.org/10.1016/j.compedu.2020.103862

Susnjak, T. (2022). The impending storm: ChatGPT, educational integrity, and plagiarism. International Journal for Educational Integrity, 18(1), 1–12. https://doi.org/10.1007/s40979-022-00126-6

UNESCO. (2023). Guidance for generative AI in education and research. UNESCO Publishing.

Zawacki-Richter, O., Marín, V., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – where are the educators? International Journal of Educational Technology in Higher Education, 16(1), 39. https://doi.org/10.1186/s41239-019-0171-0

Información adicional

Sugerencia de citación: Alzate, J.S. (2025). ¿Quién aprende y quién evalúa? Dilemas éticos de la evaluación en la era de la inteligencia artificial. Revista Visión Contable, 31, pp. 5-8. https://doi.org/10.24142/rvc.n31a1

Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
HTML generado a partir de XML-JATS4R