Artículo de investigación

Diseño y validación de un instrumento para medir las competencias digitales en inteligencia artificial en estudiantes de educación superior

Design and validation of an instrument to measure digital Competencies in artificial intelligence among Higher education students

José Luis Girarte Guillén
Universidad de Montemorelos, México
Martha Ruth Hernández Marín
Universidad de Montemorelos, México
Jorge A Hilt
Universidad de Montemorelos, México

Revista UNACIENCIA - Revista de Estudios e Investigaciones

Corporación Universitaria Adventista, Colombia

ISSN-e: 2711-0303

Periodicidad: Semestral

vol. 18, núm. 35, 2025

revistas@unac.edu.co

Recepción: 16 septiembre 2025

Aprobación: 20 noviembre 2025

Publicación: 20 noviembre 2025



Resumen: El presente estudio describe el diseño y validación de un instrumento para evaluar las competencias digitales en inteligencia artificial (IA) en estudiantes de educación superior. Ante la creciente presencia de la IA en contextos académicos y profesionales, se requieren herramientas confiables que midan el conocimiento, las actitudes y la percepción ética de los estudiantes frente a esta tecnología. La investigación se realizó con una muestra de 200 estudiantes de la Universidad de Montemorelos durante el ciclo escolar 2024-2025.

El instrumento presentó una consistencia interna adecuada (α = 0.880), con valores satisfactorios en sus tres dimensiones: Conocimiento (α = 0.774), Actitudes (α = 0.859) y Ética (α = 0.807). El análisis factorial exploratorio confirmó la estructura tridimensional, con una adecuada adecuación muestral (KMO = 0.882) y una prueba de esfericidad de Bartlett significativa (χ² = 1137.600, p < 0.001). Los tres factores explicaron el 62.088% de la varianza total: Actitudes (40.863%), Ética (12.410%) y Conocimiento (8.815%).

Las comunalidades reflejaron una sólida representación de los ítems en cada dimensión, destacando percepciones sobre la optimización del trabajo con IA (ACT3), el uso ético responsable (ETI6) y la personalización del aprendizaje (CON3). Los hallazgos respaldan la validez interna del instrumento y su utilidad para medir con fiabilidad las competencias digitales en IA. Se enfatiza la necesidad de fortalecer el conocimiento técnico, la confianza en la IA y su integración ética en los procesos formativos universitarios.

Palabras clave: Aprendizaje digital, Evaluación del conocimiento, Estudiantes universitarios, Inteligencia artificial, Percepción ética.

Abstract: This study describes the design and validation of an instrument to assess digital competencies in artificial intelligence (AI) among higher education students. Given the increasing integration of AI in academic and professional settings, reliable tools are needed to measure students’ knowledge, attitudes, and ethical perceptions regarding this technology. The research was conducted with a sample of 200 students from the University of Montemorelos during the 2024–2025 academic year.

The instrument demonstrated adequate internal consistency (α = 0.880), with satisfactory reliability coefficients across its three dimensions: Knowledge (α = 0.774), Attitudes (α = 0.859), and Ethics (α = 0.807). Exploratory factor analysis confirmed the three-factor structure, supported by sampling adequacy (KMO = 0.882) and a significant Bartlett’s test of sphericity (χ² = 1137.600, p < 0.001). The three factors accounted for 62.088% of the total variance: Attitudes (40.863%), Ethics (12.410%), and Knowledge (8.815%).

Communalities indicated a strong representation of key items within each dimension, highlighting perceptions related to AI’s potential to optimize workload (ACT3), the responsible and ethical use of AI (ETI6), and knowledge of AI-driven personalized learning (CON3). These findings support the internal validity of the instrument and its reliability in measuring digital competencies in AI. The results underscore the importance of enhancing technical knowledge, fostering trust in AI, and promoting its ethical integration within higher education curricula.

Keywords: Artificial intelligence, Digital skills, Ethical perception, Knowledge assessment, Students.

1. INTRODUCCIÓN

La Inteligencia Artificial (IA) ha transformado diversos sectores, incluyendo la educación superior, donde su aplicación permite personalizar el aprendizaje, optimizar procesos administrativos y facilitar la evaluación académica. No obstante, su integración también plantea desafíos relacionados con la formación de estudiantes y docentes, el acceso equitativo a la tecnología y la gestión ética de sus implicaciones (Popenici & Kerr, 2017; Zawacki-Richter et al., 2019).

A pesar del creciente interés en la IA, su adopción en la educación superior sigue siendo limitada debido a la falta de formación específica y herramientas de evaluación de competencias digitales en este ámbito. Investigaciones recientes han evidenciado que, aunque los estudiantes muestran una actitud positiva hacia la IA, su nivel de conocimiento técnico es insuficiente, lo que puede afectar su uso eficaz en entornos académicos (Holmes et al., 2019; Selwyn, 2019). Además, preocupaciones sobre privacidad, integridad académica y dependencia tecnológica influyen en la percepción y disposición de los usuarios frente a estas tecnologías (Abdelaal & Al Sawy, 2024; Acosta-Enríquez et al., 2024).

Ante estos desafíos, resulta necesario desarrollar un instrumento validado que permita medir las competencias digitales en IA, considerando aspectos técnicos, éticos y actitudinales. Asimismo, la implementación de estrategias de formación y políticas institucionales puede contribuir a un uso más informado y responsable de la IA en la educación superior.

Objetivo

Diseñar y validar un instrumento de medición que permita evaluar las competencias digitales en inteligencia artificial en estudiantes de educación superior, considerando las dimensiones de conocimiento, actitudes y ética, con el fin de contar con una herramienta confiable y válida que contribuya a diagnosticar el nivel de preparación de los estudiantes frente a la integración de la IA en contextos educativos.

Comprensión de conceptos de IA y su implementación en la educación

El conocimiento sobre IA en el ámbito educativo es fundamental para su integración efectiva. Sin embargo, diversos estudios han señalado que tanto estudiantes como docentes poseen un nivel básico o moderado de comprensión sobre esta tecnología, lo que limita su uso en la enseñanza y el aprendizaje (Abou Hashish & Alnajjar, 2024;Al-Qerem et al., 2023; Allam et al., 2024).

Si bien la IA tiene el potencial de mejorar la personalización del aprendizaje y automatizar tareas repetitivas, su implementación requiere formación específica. La falta de programas educativos orientados a su uso pedagógico genera barreras para su adopción, lo que subraya la importancia de incluir cursos especializados en los planes de estudio y fortalecer la capacitación docente en este campo (Ahmed et al., 2022; Al Saad et al., 2022).

En este contexto, el acceso a la IA en educación no solo depende de la disponibilidad tecnológica, sino también de factores como la alfabetización digital, la percepción de su utilidad y la existencia de regulaciones que aseguren su aplicación ética (Alghamdi & Alashban, 2023).

A medida que estas herramientas se incorporan en la educación superior, es esencial garantizar su uso equitativo y evitar que brechas en el acceso a la tecnología amplíen desigualdades en el aprendizaje.

Percepción y disposición hacia el uso de IA en la educación

La aceptación y uso de la IA en educación dependen en gran medida de la percepción de sus beneficios y de las barreras que enfrentan los usuarios. Diversos estudios han señalado que los estudiantes tienden a adoptar la IA cuando perciben que facilita su aprendizaje y mejora la personalización de los contenidos (Ofosu-Ampong, 2024; Vázquez-Parra et al., 2024).

Un factor determinante en su adopción es la percepción de utilidad y facilidad de uso. Los estudiantes muestran mayor disposición a utilizar IA cuando consideran que mejora la eficiencia en sus estudios y optimiza la retroalimentación académica. No obstante, persisten preocupaciones sobre privacidad, dependencia tecnológica y sesgo en los algoritmos, lo que puede generar resistencia a su uso (Kanont et al., 2024; Rathakrishnan et al., 2024).

En el ámbito docente, menos del 40% de los profesores en educación superior se sienten preparados para incorporar IA en sus prácticas pedagógicas, lo que sugiere la necesidad de mayor capacitación en su aplicación educativa (Zhou et al., 2020). La alfabetización digital y el acceso a formación especializada influyen directamente en la confianza de los docentes para utilizar estas tecnologías en el aula (UNESCO, 2021).

Por otro lado, el nivel de conocimiento sobre IA influye en la percepción que tienen los estudiantes sobre su impacto. Aquellos con mayor familiaridad con la tecnología tienden a verla como una herramienta complementaria al aprendizaje, mientras que quienes tienen un menor nivel de alfabetización digital pueden percibirla como una amenaza o una barrera en su educación (Liehner et al., 2023).

Si bien la IA tiene el potencial de transformar la educación, es fundamental que su implementación se realice de manera ética y equitativa. Para lograrlo, las instituciones deben desarrollar políticas claras, estrategias de formación y regulaciones que garanticen un uso responsable de la tecnología. Al abordar los desafíos asociados con su integración, se podrá fomentar una adopción más informada y efectiva en la educación superior (Wadhwa et al., 2024).

Compromiso con el uso responsable y equitativo de la IA

La integración de la inteligencia artificial generativa (IAG) en la educación superior plantea desafíos éticos y sociales que deben abordarse para garantizar su uso responsable. A medida que estas herramientas se utilizan en la enseñanza, la evaluación y la gestión académica, es fundamental establecer principios de equidad, transparencia, privacidad e integridad académica que regulen su implementación (Tyagi et al., 2022; Uunona & Goosen, 2023).

Uno de los principales retos es la protección de datos y privacidad. La IA en educación maneja grandes volúmenes de información personal, lo que requiere normativas que aseguren la seguridad de los usuarios y prevengan su uso indebido (Masters, 2023; Ungerer & Slade, 2022). Asimismo, el sesgo algorítmico en los sistemas de IA puede generar desigualdades si los modelos no se diseñan con enfoques inclusivos. Para mitigar estos efectos, es necesario desarrollar herramientas que promuevan la equidad en la educación y garanticen un acceso justo a las oportunidades de aprendizaje (Kizilcec et al., 2024).

Otro aspecto relevante es la autonomía en la toma de decisiones. Si bien la IA puede mejorar la personalización del aprendizaje y la evaluación académica, su uso no debe reemplazar el pensamiento crítico de los estudiantes ni la supervisión docente. En este sentido, es clave promover un uso complementario de la IA que refuerce, en lugar de sustituir, el proceso de enseñanza-aprendizaje (Perkins et al., 2024).

En cuanto a la integridad académica, el uso de IA en la educación plantea riesgos relacionados con el plagio y la generación de contenido automatizado. Para evitar un impacto negativo en la evaluación del aprendizaje, las instituciones deben establecer regulaciones claras y fomentar una cultura de transparencia y ética en el uso de estas tecnologías (Burton et al., 2017; Casas-Roma et al., 2021).

Por último, la formación en IA debe incluir una perspectiva ética y social que permita a los estudiantes comprender su impacto y desarrollar competencias críticas para su uso responsable (Awad et al., 2022; Rizvi, 2023). Asegurar una adopción equitativa y regulada de la IA en la educación requiere un esfuerzo conjunto entre instituciones educativas, docentes y reguladores para establecer directrices que promuevan su integración ética y sostenible (Muñoz-Vela, 2024).

Relaciones entre variables

Los estudios recientes destacan tanto las oportunidades como los desafíos que la IA presenta en el ámbito educativo. Por un lado, Luckin et al. (2018) subrayan su potencial para transformar la enseñanza mediante enfoques más personalizados y adaptativos. Por otro lado, Selwyn (2019) enfatiza la necesidad de adoptar una perspectiva crítica a fin de garantizar un uso ético que beneficie a los estudiantes. En este contexto, la regulación de la IA enfrenta desafíos significativos, especialmente en lo que respecta a los derechos de autor y la privacidad, debido a que su capacidad para generar contenido podría infringir estas normativas (Vera, 2023).

Asimismo, el rápido avance de estas tecnologías genera incertidumbre sobre la capacidad de los usuarios para adaptarse y aprovecharlas eficazmente en el aula, lo que subraya la importancia de investigar las actitudes de los estudiantes hacia su uso.

En relación con esto, Ranbhise et al. (2023) investigaron el conocimiento y las actitudes de los estudiantes de enfermería hacia la IA en la atención médica. A través de un estudio correlacional con 100 estudiantes, encontraron que la mayoría tenía un conocimiento promedio (82%) y una actitud positiva (71%) hacia la IA. Además, identificaron una correlación significativa entre conocimiento y actitud (t = 0.97, p < .05), aunque no hallaron una relación estadísticamente relevante con variables sociodemográficas. Estos resultados resaltan la importancia de fortalecer la formación en IA para que su integración en la práctica clínica sea óptima.

Las percepciones sobre la IA están influenciadas por diversos factores psicológicos, entre ellos la satisfacción de las necesidades psicológicas básicas. Por ejemplo, un estudio reciente de Bergdahl et al. (2023) analizó la relación entre la autodeterminación y las actitudes hacia la IA en seis países europeos, encontrando que una mayor satisfacción de las necesidades de autonomía, competencia y relación se asocia con una percepción más positiva y una menor visión negativa de la IA. Además, un análisis longitudinal evidenció que la autonomía y la relación juegan un papel clave en la evolución de estas actitudes con el tiempo. Por lo tanto, estos hallazgos subrayan la relevancia de considerar factores psicológicos al evaluar la aceptación y disposición hacia la IA en contextos educativos (Bergdahl et al., 2023).

Por otra parte, menos del 40% de los docentes en educación superior se sienten preparados para utilizar la IA en su práctica diaria (Zhou et al., 2020). Esto podría generar un rezago tecnológico y dificultades para formar a los estudiantes en un entorno laboral donde la IA será predominante (UNESCO, 2021). En este sentido, es fundamental validar instrumentos que permitan medir con precisión las competencias docentes en IA, garantizando su adecuada integración en la educación superior.

Investigaciones previas, como las de Popenici y Kerr (2017), destacan que la percepción docente sobre la IA es un factor determinante para su adopción, mientras que Luckin (2018) subraya la importancia de una capacitación especializada. Sin embargo, aunque Zawacki-Richter et al. (2019) han propuesto herramientas de medición, su validación sigue siendo un desafío pendiente. En línea con estos hallazgos, el estudio de Saz-Pérez et al. (2024) señala que los docentes muestran mayor confianza en sus conocimientos pedagógicos y de contenido (CK, PK y PCK > 3), pero menor seguridad en las dimensiones tecnológicas, con valores por debajo de 3. Esto sugiere la necesidad de un análisis factorial para examinar estas diferencias.

Complementando esta perspectiva, Liehner et al. (2023) informan que, aunque solo el 8.9% de los encuestados cree que la IA tomará el control, un 30.6% la percibe como una amenaza. A pesar de estas preocupaciones, más del 70% considera que la IA puede mejorar la calidad de vida, y más del 90% cree que puede reducir el tiempo de trabajo. No obstante, el 85.5% expresa inquietud sobre su mal uso y el 82.3% sobre la privacidad. Además, el optimismo tecnológico muestra correlaciones positivas con la confianza (r = .47) y la intención de uso de la IA (r = .34).

2. METODOLOGÍA

El presente estudio adopta un enfoque de tipo exploratorio y transversal, orientado a diseñar y validar un instrumento de medición para evaluar las competencias digitales en inteligencia artificial en estudiantes de educación superior.

Población y muestra

La población de este estudio estuvo conformada por estudiantes de nivel superior de la Universidad de Montemorelos (UM), inscritos en el ciclo escolar 2024-2025. De esta población, se seleccionó una muestra de 200 estudiantes provenientes de distintas áreas académicas, lo que permitió obtener una perspectiva integral sobre sus competencias digitales en inteligencia artificial (IA).

En primer lugar, para la prueba piloto, se seleccionó una muestra de 70 estudiantes, utilizando un muestreo no probabilístico por conveniencia. Dichos participantes provenían de distintas escuelas del área de la salud (Odontología, Químico Clínico Biólogo (QCB), Enfermería, Nutrición y Medicina). El propósito de esta fase fue evaluar la claridad y pertinencia del instrumento, lo que llevó a la reducción del número de ítems de 29 a 14 reactivos. Es importante señalar que estos 70 estudiantes no formaron parte del estudio final.

Posteriormente, para la prueba final, se utilizó una nueva muestra de 200 estudiantes de educación superior, también seleccionados mediante muestreo no probabilístico por conveniencia. Esta muestra incluyó participantes de diversas facultades y escuelas de la UM, entre ellas, la Facultad de Ciencias de la Salud (FACSA), Facultad de Teología (FATEO), Facultad de Educación (FACED) y Facultad de Ingeniería y Tecnología (FITEC), entre otras, garantizando así una representación heterogénea en términos de áreas de estudio y niveles académicos.

A cada estudiante se le proporcionó un enlace al cuestionario, mediante el cual se evaluó su autopercepción sobre el nivel de comprensión de conceptos básicos y avanzados de inteligencia artificial (IA), su capacidad para implementar herramientas de IA en contextos educativos, su percepción y disposición hacia el uso de la IA en la educación, así como su compromiso con un uso responsable y equitativo de esta tecnología.

Instrumentos

Se diseñó un instrumento compuesto por 29 ítems, organizados en tres dimensiones principales: (a) Conocimiento, que evalúa el nivel de comprensión de conceptos de inteligencia artificial (IA) y la capacidad para implementar herramientas de IA en contextos educativos; (b) Actitudes, que mide la percepción y disposición hacia el uso de IA en la educación; y (c) Ética, que valora el compromiso con un uso responsable y equitativo de la IA.

Cada ítem se calificó mediante una escala Likert de cinco puntos: (1) Totalmente en desacuerdo, (2) En desacuerdo, (3) Indiferente, (4) De acuerdo y (5) Totalmente de acuerdo. El instrumento fue sometido a un análisis de validez de contenido mediante la evaluación de ocho expertos en tecnología educativa y metodología de la investigación.

El proceso de construcción del instrumento siguió el siguiente proceso:

  1. 1. Validez de contenido. Se estableció el marco teórico de cada dimensión con base en estudios previos, mediante el análisis y revisión de la literatura sobre el tema.
  2. 2. Selección de indicadores: Se definieron los indicadores para cada dimensión a partir del análisis de las variables y su respaldo en la literatura.
  3. 3. Redacción de ítems: Inicialmente, se formularon 5 ítems para la dimensión de conocimiento, 15 para la de actitudes y 9 para la de ética.
  4. 4. Para garantizar la validez del instrumento, se sometió a revisión por parte de ocho expertos en distintas disciplinas relacionadas con la educación, la tecnología y la investigación. El panel estuvo conformado por especialistas en educación, nuevas tecnologías de la información, sistemas y ambientes educativos, psicología, administración e investigación. Cada experto evaluó los ítems en términos de claridad, relevancia y pertinencia, asegurando su alineación con las competencias digitales actuales y reforzando la validez del instrumento.
  5. 5. Ajuste de los ítems: Se incorporaron las recomendaciones de los expertos, lo que resultó en una reducción y optimización de los ítems para mejorar su claridad, aplicabilidad y efectividad. La distribución final quedó en 4 ítems para conocimiento, 6 para actitud y 4 para ética.
  6. 6. Validez de constructo: Se realizó un análisis factorial exploratorio para confirmar que el instrumento mide las dimensiones teóricas propuestas.
  7. 7. Confiabilidad interna: Se determinó mediante el coeficiente alfa de Cronbach.

3. RESULTADOS

Análisis Factorial Exploratorio

La prueba de adecuación muestral de Kaiser-Meyer-Olkin (KMO) = .882 y la prueba de esfericidad de Bartlett (χ² = 1137.600, p < .001) confirmaron la idoneidad de los datos para realizar un análisis factorial. Se retuvieron tres factores, los cuales explicaron el 62.088% de la varianza total como se muestra en la Tabla 1:

Factor 1 (Actitudes): Explicó el 40.863% de la varianza y agrupó ítems relacionados con percepciones positivas sobre la IA, como su capacidad para optimizar la carga de trabajo.

Factor 2 (Ética): Representó el 12.410% de la varianza, destacando ítems asociados al uso ético de la IA.

Factor 3 (Conocimiento): Aportó el 8.815% de la varianza, abarcando conceptos básicos y aplicaciones avanzadas de la IA.

Tabla 1.
Varianza total explicada por los factores retenidos
FactorVarianza Explicada (%)
Factor 1 (Actitudes)40.863%
Factor 2 (Ética)12.410%
Factor 3 (Conocimiento)8.815%
Total62.088%

El Análisis Factorial Exploratorio (AFE) confirmó que los datos presentan una estructura factorial apropiada y justifican la aplicación del modelo factorial. La Tabla 2 presenta la matriz de patrón final con las cargas factoriales de los ítems retenidos en cada factor. Estos resultados respaldan la validez de la estructura de tres factores propuesta y confirman que los ítems del instrumento se agrupan de manera coherente dentro de sus respectivas dimensiones.

Comunalidades y representación de los ítems

Con relación a las comunalidades, como se presentan en la Tabla 2, se identificaron las siguientes tendencias en la representación de los ítems dentro del modelo factorial:

Tabla 2.
Cargas Factoriales y Comunalidades - Matriz de Patrón
ÍtemComunalidadFactor 1 ActitudesFactor 2 ÉticaFactor 3 Conocimiento
ACT3. Percibo que la IA puede reducir la carga de trabajo.0.951.951-.094-.136
ACT2. Estoy dispuesto a utilizar herramientas de IA en actividades educativas.0.686.686.034.038
ACT5. Me siento seguro al utilizar tecnologías de IA.0.646.646-.097.178
ACT4. Estoy motivado para aprender sobre el uso de la IA.0.639.639.155-.058
ACT6. Estoy convencido de que la IA puede atender necesidades individuales de aprendizaje.0.582.582.107-.012
ACT1. Considero que la IA puede mejorar el proceso enseñanza-aprendizaje.0.569.569.127.167
ETI6. Me considero responsable del uso ético de las herramientas de IA.0.855-.031.855.007
ETI2. Asumo la responsabilidad ética de las decisiones que tomo al interactuar con la IA.0.752-.092.752.099
ETI4. Soy responsable de verificar la veracidad de los trabajos generados mediante IA.0.647.114.647-.085
ETI3. Considero que la IA debería alentar prácticas de honestidad en el ámbito académico.0.566.156.566-.076
CON3. Conozco cómo la IA se puede aplicar para personalizar el aprendizaje.0.775.019.015.775
CON2. Tengo conocimiento de los principios del procesamiento del lenguaje natural.0.704-.015-.156.704
CON4. Conozco formas en que la IA se aplica en la evaluación académica.0.675.024.061.675
CON1. Tengo conocimientos sobre los conceptos básicos de la IA.0.571-.020.109.571

1. Variables mejor representadas: Los ítems CON3 (0.775), ACT3 (0.951) y ETI6 (0.855) presentaron los valores de comunalidad más altos (> 0.70), lo que indica una fuerte asociación con sus respectivos factores y una adecuada representación dentro del modelo.

2. Variables con menor representación: Algunos ítems, como CON1 (0.571), ACT6 (0.582) y ETI3 (0.566), mostraron comunalidades más bajas. Aunque siguen contribuyendo a sus factores, podrían considerarse para futuras revisiones con el fin de mejorar su ajuste al modelo teórico.

El instrumento alcanzó un coeficiente de fiabilidad Alpha de Cronbach de 0.880 para la escala global, lo que indica una alta consistencia interna. Las dimensiones específicas también mostraron buenos índices de fiabilidad: Conocimiento (α = .774), Actitudes (α = .859) y Ética (α = 0.807). Estos resultados validan la estructura interna del instrumento y aseguran su capacidad para medir de manera confiable las competencias digitales en inteligencia artificial.

En cuanto a los ítems con menor comunalidad (CON1, ACT6 y ETI3), se observó que, aunque presentan una representación más moderada dentro del modelo, su inclusión se justifica por su relevancia conceptual en las dimensiones correspondientes. El ítem CON1 refleja conocimientos introductorios sobre IA, cuya variabilidad puede deberse a diferencias en la exposición previa de los estudiantes al tema; ACT6 aborda la percepción de personalización del aprendizaje, un aspecto que tiende a variar según la experiencia individual con herramientas de IA; y ETI3 enfatiza la honestidad académica, dimensión que podría interpretarse de manera diversa según el contexto educativo. A pesar de su menor peso estadístico, estos reactivos contribuyen a la coherencia teórica y enriquecen la evaluación integral de las competencias digitales en IA.

Métodos de Extracción y Rotación en el Análisis Factorial

En el análisis, utilizamos el método de extracción de Máxima Verosimilitud (ML) porque es particularmente adecuado para modelos en los que se asume una distribución normal de los datos y se busca optimizar la estimación de los factores latentes. Este método permite evaluar el ajuste del modelo a los datos mediante pruebas estadísticas como el Chi-cuadrado, lo que facilita la validación del modelo factorial. Además, la Máxima Verosimilitud es una de las técnicas más utilizadas en el análisis factorial exploratorio debido a su robustez y capacidad para manejar errores de medición.

Respecto al método de rotación, empleamos Promax con normalización Kaiser, que es un método de rotación oblicua. Esta elección se debe a que los factores en nuestro modelo no son completamente independientes, lo que hace que una rotación ortogonal como Varimax no sea la más adecuada. Promax permite que los factores se correlacionen, lo que refleja de manera más realista la estructura subyacente de los datos. Además, la normalización de Kaiser ayuda a mejorar la interpretación de los factores al ajustar la varianza de los componentes, evitando sobreestimaciones o distorsiones en las cargas factoriales.

Criterio para la Extracción del Número de Factores a Retener

Para determinar el número óptimo de factores a retener en este análisis, se emplearon dos criterios complementarios:

Regla de Kaiser (Eigenvalues > 1):

Siguiendo este criterio, se retienen los factores cuyos autovalores sean mayores a 1, ya que estos explican una cantidad significativa de varianza dentro del modelo.

En el análisis, los primeros tres factores presentan autovalores superiores a 1, lo que sugiere que son los más relevantes para la estructura factorial.

Criterio del Codo de Cattell (Scree Plot):

Se analizó el gráfico de sedimentación, el cual muestra un punto de inflexión pronunciado alrededor del tercer factor.

A partir de este punto, la pendiente se vuelve más plana, indicando que los factores adicionales no aportan una varianza significativa como se aprecia en la Figura 1.

Este resultado coincide con la Regla de Kaiser, reforzando la decisión de retener tres factores.

Gráfico de Sedimentación (Scree Plot)

A continuación, se presenta el gráfico de sedimentación, que ilustra la disminución de los autovalores en función del número de factores:

Figura 1.

Gráfico de sedimentación

Estadísticos descriptivos

Los resultados reflejan una actitud generalmente positiva hacia la inteligencia artificial (IA), con una media global de 4.12 (DE = 0.756), los resultados completos se observan en la Tabla 3.Entre las dimensiones evaluadas:

Conocimiento obtuvo el puntaje más bajo (M = 3.79, DE = 0.894), lo que indica la necesidad de fortalecer la formación técnica en IA.

Actitudes registró el puntaje más alto (M = 4.31, DE = 0.721), sugiriendo una predisposición favorable hacia la integración de IA en entornos educativos.

Ética presentó una media de 4.19 (DE = 0.666), evidenciando una alta conciencia sobre el uso responsable de la IA.

Tabla 3.

Tabla 3.
Matriz de patrón del análisis factorial exploratorio (n =190)
DescripciónMDE
CON1. Tengo conocimientos sobre los conceptos básicos de la IA.4.23.746
CON2. Tengo conocimiento de los principios del procesamiento del lenguaje natural.3.79.894
CON3. Conozco cómo la IA se puede aplicar para personalizar el aprendizaje.4.14.757
CON4. Conozco formas en que la IA se aplica en la evaluación académica.3.81.923
CON5. Estoy al tanto de algunos desarrollos recientes en el campo de la IA.3.77.959
ACT1. Considero que la IA puede mejorar el proceso enseñanza-aprendizaje.4.27.680
ACT2. Estoy dispuesto a utilizar herramientas de IA en actividades educativas.4.28.683
ACT3. Percibo que la IA puede reducir la carga de trabajo.4.31.721
ACT4. Estoy motivado para aprender sobre el uso de la IA.4.24.752
ACT5. Me siento seguro al utilizar tecnologías de IA.3.78.932
ACT6. Estoy convencido de que la IA puede atender necesidades individuales de aprendizaje.4.09.676
ACT7. Confío en la IA para decisiones basadas en datos.3.69.849
ACT8. Valoro el aprendizaje con IA como parte de mi desarrollo profesional.3.99.731
ETI1. Confío en que la IA maneja de forma ética la información que proporciono protegiendo mi privacidad.3.501.01
ETI2. Asumo la responsabilidad ética de las decisiones que tomo al interactuar con la IA.4.15.666
ETI3. Considero que la IA debería alentar prácticas de honestidad en el ámbito académico.4.11.751
ETI4. Soy responsable de verificar la veracidad de los trabajos generados mediante IA.4.16.702
ETI5. Percibo que los sistemas de IA tratan de forma imparcial a los usuarios.3.88.824
ETI6. Me considero responsable del uso ético de las herramientas de IA.4.19.666

4. DISCUSIÓN Y CONCLUSIÓN

Los hallazgos de este estudio validan el instrumento desarrollado para evaluar las competencias digitales en inteligencia artificial (IA) en educación superior y revelan tendencias clave en el conocimiento, la percepción y la actitud de los estudiantes hacia estas tecnologías. En concordancia con estudios previos (Luckin et al., 2018; Holmes et al., 2019; Selwyn, 2019), se identificó una predisposición positiva hacia la IA, particularmente en lo que respecta a su capacidad para optimizar procesos académicos y mejorar la eficiencia en el aprendizaje.

No obstante, y tal como lo han señalado Zhou et al. (2020) y Allam et al. (2024), persisten deficiencias en el conocimiento técnico, especialmente en áreas especializadas como el procesamiento del lenguaje natural y la evaluación mediante IA.

Actitudes y competencias digitales

El análisis factorial exploratorio confirmó la existencia de tres dimensiones clave en la alfabetización en IA: actitudes, ética y conocimiento. Esto refuerza la noción de que una integración efectiva de la IA en la educación superior requiere no solo habilidades técnicas, sino también el desarrollo de actitudes positivas y una comprensión ética de su impacto (Zawacki-Richter et al., 2019; Selwyn, 2019). A pesar de la actitud generalmente favorable de los estudiantes, los puntajes más bajos en la dimensión de conocimiento evidencian una brecha significativa en la formación técnica, lo que coincide con investigaciones que destacan la necesidad de fortalecer la educación en IA dentro de los planes de estudio (Bakhteev, 2023).

En este sentido, estudios recientes sobre la relación entre la alfabetización en IA y la aceptación de la tecnología en entornos educativos han demostrado que una mayor formación en IA no solo mejora la capacidad de los estudiantes para utilizarla eficazmente, sino que también disminuye la incertidumbre sobre su impacto y los riesgos asociados (Bergdahl et al., 2023). Sin embargo, menos del 40% de los docentes en educación superior se sienten preparados para enseñar sobre IA (Zhou et al., 2020), lo que sugiere una desconexión entre la necesidad de formación y la preparación actual del profesorado.

Ética y percepción de la IA

Uno de los aspectos más relevantes de este estudio es la identificación de una alta conciencia ética entre los estudiantes, lo que indica un compromiso generalizado con el uso responsable de la IA. Sin embargo, esta conciencia no necesariamente se traduce en una formación estructurada sobre los dilemas éticos asociados con la IA. Investigaciones como las de Uunona y Goosen (2023) han subrayado la importancia de incluir la reflexión ética en la enseñanza de IA para evitar riesgos como el sesgo algorítmico y la falta de transparencia en la toma de decisiones automatizadas.

Además, en línea con los modelos de interacción ética y legal de la sociedad con la IA propuestos por Bakhteev (2023), se pueden identificar diferentes posturas hacia la tecnología: desde un modelo instrumental que ve la IA como una simple herramienta, hasta modelos de empatía y tolerancia que buscan la integración armónica de estas tecnologías en la sociedad. La educación superior debe adoptar un enfoque equilibrado que fomente la alfabetización digital sin caer en la dependencia tecnológica ni en una visión exclusivamente utilitarista de la IA.

El papel de la ética en la innovación y la adopción de IA

La relación entre actitud, ética y comportamiento innovador en el uso de la IA ha sido ampliamente discutida en estudios recientes (Casas-Roma et al., 2021; Chen & Zhang, 2023; Lérias et al., 2024; Liehner et al., 2023; Uunona & Goosen, 2023). Atalla et al. (2024) demostraron que la conciencia ética modera la relación entre la percepción de la IA y el comportamiento innovador, es decir, que una actitud positiva hacia la IA por sí sola no es suficiente para promover la innovación si no se acompaña de una formación ética sólida. Esto sugiere que la inclusión de módulos sobre ética de la IA en la educación superior no solo garantizaría un uso más responsable de la tecnología, sino que también incentivaría la creatividad y el desarrollo de soluciones innovadoras en los estudiantes (Casas-Roma et al., 2021; Chen & Zhang, 2023; Lérias et al., 2024; Liehner et al., 2023; Uunona & Goosen, 2023).

En comparación con instrumentos similares orientados a medir competencias digitales y alfabetización en IA (por ejemplo, los desarrollados por Zawacki-Richter et al., 2019; Saz-Pérez et al., 2024; y Lérias et al., 2024), el presente cuestionario destaca por integrar de manera equilibrada las dimensiones de conocimiento, actitudes y ética, abarcando tanto aspectos técnicos como formativos. Esta estructura tridimensional permite obtener un perfil más integral de la competencia digital en IA en educación superior. En cuanto a su aplicación práctica, el instrumento puede emplearse como herramienta diagnóstica institucional para identificar áreas de fortalecimiento en la formación universitaria, apoyar la planeación curricular orientada a la alfabetización en IA y servir de base para programas de capacitación docente que promuevan el uso ético y responsable de estas tecnologías.

El instrumento validado en este estudio constituye una herramienta útil para diagnosticar el nivel de competencias digitales en inteligencia artificial de los estudiantes universitarios, favoreciendo la identificación de brechas en el conocimiento técnico, la actitud y la ética. Su aplicación práctica puede contribuir al diseño de estrategias institucionales de formación en IA, a la actualización curricular basada en evidencias y al fortalecimiento de programas de capacitación docente orientados a un uso crítico y responsable de la tecnología. En este sentido, la validación del instrumento no solo aporta al ámbito investigativo, sino que también ofrece un recurso concreto para promover la alfabetización digital y la innovación educativa en la educación superior.

En conclusión, los resultados de este estudio enfatizan la necesidad de un enfoque educativo integral que combine alfabetización tecnológica, formación ética y desarrollo de actitudes positivas hacia la IA. Para ello, es imprescindible que las instituciones de educación superior fortalezcan sus programas de formación en IA y promuevan una cultura de uso responsable y reflexivo de estas tecnologías.

REFERENCIAS BIBLIOGRÁFICAS

Abdelaal, N. M. & Al Sawi, I. (2024). Perceptions, challenges, and prospects: University professors' use of artificial intelligence in education. Australian Journal of Applied Linguistics, 7(1), 1-24. https://doi.org/10.29140/ajal.v7n1.1309

Abou-Hashish, E. A. & Alnajjar, H. (2024). Digital proficiency: Assessing knowledge, attitudes, and skills in digital transformation, health literacy, and artificial intelligence among university nursing students. BMC Medical Education, 24(1), 508. https://doi.org/10.1186/s12909-024-05482-3

Acosta-Enríquez, B. G., Arbulú-Ballesteros, M. A., Arbulu-Pérez-Vargas, C. G., Orellana-Ulloa, M. N., Gutiérrez-Ulloa, C. R., Pizarro-Romero, J. M., Gutiérrez-Jaramillo, N. D., Cuenca-Orellana, H. U., Ayala-Anzoátegui, D. X., & López Roca, C. (2024). Knowledge, attitudes, and perceived ethics regarding the use of ChatGPT among generation Z university students. International Journal for Educational Integrity, 20(1), 10.https://doi.org/10.1007/s40979-024-00157-4

Ahmed, Z., Bhinder, K. K., Tariq, A., Tahir, M. J., Mehmood, Q., Tabassum, M. S., & Yousaf, Z. (2022). Knowledge, attitude, and practice of artificial intelligence among doctors and medical students in Pakistan: A cross-sectional online survey. Annals of Medicine and Surgery, 76, 103493. https://doi.org/10.1016/j.amsu.2022.103493

Akgun, S. & Greenhow, C. (2022). Artificial intelligence in education: Addressing ethical challenges in K-12 settings. AI and Ethics, 2(3), 431–440. https://doi.org/10.1007/s43681-021-00096-7

Al Saad, M. M., Shehadeh, A., Alanazi, S., Alenezi, M., Eid, H., Alfaouri, M. S., & Alenezi, R. (2022). Medical students’ knowledge and attitude towards artificial intelligence: An online survey. The Open Public Health Journal, 15(1), e001. https://doi.org/10.2174/18749445-v15-e2203290

Alghamdi, S. A. & Alashban, Y. (2023). Knowledge, attitudes and practices towards artificial intelligence (AI) among radiologists in Saudi Arabia. Journal of Radiation Research and Applied Sciences, 16(2), 100569. https://doi.org/10.1016/j.jrras.2023.100569

Allam, A. H., Eltewacy, N. K., Alabdallat, Y. J., Owais, T. A., Salman, S. & Ebada, M. A. (2024). Knowledge, attitude, and perception of Arab medical students towards artificial intelligence in medicine and radiology: A multi-national cross-sectional study. European Radiology, 34(7), 1–14. https://doi.org/10.1007/s00330-023-10509-2

Al-Qerem, W., Eberhardt, J., Jarab, A., Al Bawab, A. Q., Hammad, A., Alasmari, F.,& Al-Beool, S. (2023). Exploring knowledge, attitudes, and practices towards artificial intelligence among health professions students in Jordan. BMC Medical Informatics and Decision Making, 23 (288), 1-7. https://doi.org/10.1186/s12911-023-02403-0

Atalla, A. D. G., El-Ashry, A. M., & Mohamed Sobhi Mohamed, S. (2024). The moderating role of ethical awareness in the relationship between nurses’ artificial intelligence perceptions, attitudes, and innovative work behavior: A cross-sectional study. BMC Nursing, 23(1), 488. https://doi.org/10.1186/s12912-024-02143-0

Awad, S. O., Mohamed, Y. & Shaheen, R. (2022). Applications of artificial intelligence in education. Al-Azkiyaa - Jurnal Antarabangsa Bahasa dan Pendidikan, 1(1), 71–81. https://doi.org/10.33102/alazkiyaa.v1i1.10

Bakhteev, D. V. (2023). Ethical-legal models of the society interactions with artificial intelligence technology. Journal of Digital Technologies and Law, 1(2), 520–539. https://doi.org/10.21202/jdtl.2023.22

Bergdahl, J., Latikka, R., Celuch, M., Savolainen, I., Soares Mantere, E., Savela, N. & Oksanen, A. (2023). Self-determination and attitudes toward artificial intelligence: Cross-national and longitudinal perspectives. Telematics and Informatics, 82, 102013. https://doi.org/10.1016/j.tele.2023.102013

Burton, E., Goldsmith, J., Koenig, S., Kuipers, B., Mattei, N. & Walsh, T. (2017). Ethical Considerations in Artificial Intelligence Courses. AI Magazine, 38(2), 22–34. https://doi.org/10.1609/aimag.v38i2.2731

Casas-Roma, J., Conesa, J. & Caballé, S. (2021). Education, ethical dilemmas and AI: From ethical design to artificial morality. En R. A. Sottilare & J. Schwarz (Eds.), Adaptive instructional systems. Design and evaluation (Vol. 12792, pp. 167–182). Springer International Publishing. https://doi.org/10.1007/978-3-030-77857-6_11

Chen, D. & Zhang, L. (2023). Monotonicity for AI ethics and society: An empirical study of the monotonic neural additive model in criminology, education, health care, and finance. ArXiv, abs/2301.07060. https://doi.org/10.48550/ARXIV.2301.07060

Chuang, S. (2020). An empirical study of displaceable job skills in the age of robots. European Journal of Training and Development.https://doi.org/10.1108/EJTD-10-2019-0183

Holmes, W., Bialik, M. & Fadel, C. (2019). Artificial intelligence in education: Promises and implications for teaching and learning. Center for Curriculum Redesign.

Kizilcec, R. F., Huber, E., Papanastasiou, E. C., Cram, A., Makridis, C. A., Smolansky, A., & Raduescu, C. (2024). Perceived impact of generative AI on assessments: Comparing educator and student perspectives in Australia, Cyprus, and the United States. Computers and Education: Artificial Intelligence, 7, 100269. https://doi.org/10.1016/j.caeai.2024.100269

Kanont, K., Pingmuang, P., Simasathien, T., Wisnuwong, S., Wiwatsiripong, B., Poonpirome, K., Songkram, N. & Khlaisang, J. (2024). Generative-AI, a Learning Assistant? Factors Influencing Higher-Ed Students’ Technology Acceptance. The Electronic Journal Of e-Learning, 22(6), 1833. https://doi.org/10.34190/ejel.22.6.3196

Lérias, E., Guerra, C. & Ferreira, P. (2024). Literacy in artificial intelligence as a challenge for teaching in higher education: A case study at Portalegre Polytechnic University. Information, 15(4), 205. https://doi.org/10.3390/info15040205

Liehner, G., Hick, A., Biermann, H., Brauner, P. & Ziefle, M. (2023). Perceptions, attitudes, and trust toward artificial intelligence: An assessment of public opinion. Artificial Intelligence and Social Computing, 72, 1–9. https://doi.org/10.54941/ahfe1003271

Luckin, R. (2018). Machine learning and human intelligence: The future of education for the 21st century. UCL IOE Press.

Luckin, R., Holmes, W., Griffiths, M. & Forcier, L. B. (2018). Intelligence unleashed: An argument for AI in education. Pearson.

Masters, K. (2023). Ethical use of artificial intelligence in health professions education: AMEE Guide No. 158. Medical Teacher, 45(6), 574–584.https://doi.org/10.1080/0142159X.2023.2186203

Muñoz-Vela, J. M. (2024). Inteligencia artificial generativa. Desafíos para la propiedad intelectual. Revista de Derecho de la UNED, 33, 17–75.https://doi.org/10.5944/rduned.33.2024.41924

Ofosu-Ampong, K. (2024). Beyond the hype: Exploring faculty perceptions and acceptability of AI in teaching practices. Discover Education, 3, 38. https://doi.org/10.1007/s44217-024-00128-4

Perkins, M., Furze, L., Roe, J. & MacVaugh, J. (2024). The artificial intelligence assessment scale (AIAS): A framework for ethical integration of generative AI in educational assessment. Journal of University Teaching and Learning Practice, 21(6).https://doi.org/10.53761/q3azde36

Popenici, S. A. D. & Kerr, S. (2017). Exploring the impact of artificial intelligence on teaching and learning in higher education. Research and Practice in Technology Enhanced Learning, 12(1), 22. https://doi.org/10.1186/s41039-017-0062-8

Ranbhise, N., Rathod, S. & Talsandekar, A. (2023). A correlational study on knowledge and attitude regarding artificial intelligence in health care among nursing students of D. Y. Patil College of Nursing, Kolhapur, Maharashtra. International Journal for Multidisciplinary Research, 5(4), 12–23. https://doi.org/10.36948/ijfmr.2023.v05i04.5637

Rathakrishnan, T., Kumar, T. B., Tsen, M. K., Leong, M. K. & Yaacob, A. (2024). AI tools: Anxiety to achievement - Unveiling the psychological dynamics of technology adoption. In R. Kumar, E. Ong, S. Anggoro, T. Toh y M. Fukui (Eds.), Transdisciplinary teaching and technological integration for improved learning: Case studies and practical approaches (pp. 42–65). IGI Global. https://doi.org/10.4018/979-8-3693-8217-2.ch003

Rizvi, M. (2023). Exploring the landscape of artificial intelligence in education: Challenges and opportunities. En 2023 5th International Congress on Human-Computer Interaction, Optimization and Robotic Applications (HORA). IEEE. https://doi.10.1109/HORA58378.2023.10156773

Saz-Pérez, F., Pizà-Mir, B. & Lizana-Carrió, A. (2024). Validación y estructura factorial de un cuestionario TPACK en el contexto de inteligencia artificial generativa (IAG). Hachetetepe. Revista científica de Educación y Comunicación, 28, 1–14. https://doi.org/10.25267/Hachetetepe.2024.i28.1101

Selwyn, N. (2019). Should robots replace teachers? AI and the future of education. Learning, Media and Technology, 44(2), 143–154. https://doi.org/10.1080/17439884.2019.1667891

Tyagi, M., Ranjan, S., Smiti & Gupta, A. (2022). Transforming education system through artificial intelligence and machine learning. En 2022 3rd International Conference on Intelligent Engineering and Management (ICIEM) (pp. 44–49). https://doi.org/10.1109/ICIEM54221.2022.9853195

UNESCO. (2021). Artificial intelligence in education: Challenges and opportunities. UNESCO Publishing. https://unesdoc.unesco.org/ark:/48223/pf0000376709

Ungerer, L. & Slade, S. (2022). Ethical considerations of artificial intelligence in learning analytics in distance education contexts. En P. Prinsloo, S. Slade y M. Khalil (Eds.), Learning analytics in open and distributed learning (pp. 105–120). Springer Nature Singapore. https://doi.org/10.1007/978-981-19-0786-9_8

Uunona, G. N. & Goosen, L. (2023). Leveraging ethical standards in artificial intelligence technologies: A guideline for responsible teaching and learning applications. En M. B. Garcia, M. V. Lopez Cabrera y R. P. P. De Almeida (Eds.), Advances in medical education, research, and ethics (pp. 310–330). IGI Global. https://doi.org/10.4018/978-1-6684-7164-7.ch014

Vázquez-Parra, J. C., Henao-Rodríguez, C., Lis-Gutiérrez, J. P. & Palomino-Gámez, S. (2024). Importance of university students’ perception of adoption and training in artificial intelligence tools. Societies, 14(8), 141. https://doi.org/10.3390/soc14080141

Vera, F. (2023). Integración de la inteligencia artificial en la educación superior: Desafíos y oportunidades. Transformar, 4(1), 17–34. https://www.revistatransformar.cl/index.php/transformar/article/view/84

Wadhwa, R., Rabby, F., Bansal, R. & Hundekari, S. (2024). Drivers and impact of artificial intelligence on student engagement. En AI algorithms and ChatGPT for student engagement in online learning (pp. 161–170). IGI Global. https://doi.org/10.4018/979-8-3693-4268-8.ch011

Zawacki-Richter, O., Marín, V. I., Bond, M. & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education–Where are the educators? International Journal of Educational Technology in Higher Education, 16(1), 39. https://doi.org/10.1186/s41239-019-0171-0

Zhou, L., Li, F., Wu, S. & Zhou, M. (2020). Smart education in the era of AI: Opportunities and challenges. Education and Information Technologies, 25(3), 3439–3460. https://doi.org/10.1007/s10639-019-10063-8

Notas

CONFLICTO DE INTERESES Los autores declaran que no existe ningún conflicto de interés que pueda haber influido en la elaboración, desarrollo o publicación del presente artículo. No se presentan vínculos laborales, institucionales ni personales que puedan comprometer la objetividad e integridad de los resultados reportados.
FINANCIACIÓN Los autores declaran que la financiación para el desarrollo de esta investigación fue asumida directamente por los investigadores involucrados. No se contó con el respaldo de entidades externas, instituciones financiadoras ni entes cooperantes. Esta investigación se llevó a cabo mediante recursos personales, con el compromiso de garantizar la transparencia y la integridad en el proceso de producción científica.
CONTRIBUCIÓN DE AUTORES Se requiere que los autores indiquen claramente su contribución específica al trabajo presentado, asegurando la transparencia y el reconocimiento adecuado de cada autor involucrado.

Conceptualización: José Luis Girarte Guillén

Metodología: José Luis Girarte Guillén

Investigación: Martha Ruth Hernández Marín

Análisis y curación de datos: Jorge A. Hilt

Redacción y preparación del borrador del artículo: José Luis Girarte Guillén

Redacción, edición y revisión final del artículo: Martha Ruth Hernández Marín, Jorge A. Hilt

Revisión formal para el sometimiento del artículo: José Luis Girarte Guillén

Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
HTML generado a partir de XML-JATS4R