Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


Competencias digitales, desarrollo y validación de un instrumento para su valoración en el contexto colombiano
Development and validation of an instrument to assess digital competences in Colombia
Trilogía Ciencia Tecnología Sociedad, vol.. 11, núm. 20, 2019
Instituto Tecnológico Metropolitano

Artículos



Recepción: 04 Octubre 2018

Aprobación: 25 Diciembre 2018

DOI: https://doi.org/10.22430/21457778.1083

Resumen: El presente artículo presenta el proceso de desarrollo y validación del instrumento: Escala de Valoración de Competencias Digitales (EVCD), aplicado a estudiantes de educación media de la ciudad de Medellín Colombia. Para llevar a cabo esta investigación de tipo cuantitativo, se realiza un proceso de validación de contenidos a través del juicio de expertos y el cálculo del Índice de Validez de Contenido, luego se realiza una ratificación de constructo a través de análisis factorial exploratorio y confirmatorio, y finalmente, se hace un análisis de fiabilidad a través de la aplicación de la prueba de Alpha de Cronbach. Como producto del estudio, se obtiene un instrumento con 6 dimensiones y 30 ítems que evalúa las competencias digitales de estudiantes en Colombia, de manera confiable y precisa.

Palabras clave: competencias digitales, validación de contenido, juicio de expertos, validación de constructo, análisis de fiabilidad.

Abstract: This article presents the process of development and validation of an instrument called Digital Competence Assessment Scale administered to secondary students in Medellín, Colombia. This quantitative study validated the content using expert judgement and the calculation of the Content Validity Index. Afterward, the construct was tested by means of exploratory and confirmatory factor analysis. Finally, reliability was analyzed by applying Cronbach’s alpha. The result of this work is an instrument comprising 6 dimensions and 30 items to evaluate the digital competences of students in Colombia in an accurate and reliable way.

Keywords: digital competences, content validation, expert judgment, construct validation, reliability analysis.

INTRODUCCIÓN

Las TIC han ejercido una notoria influencia en todos los ámbitos de la sociedad, a tal punto, que su adopción y uso se han convertido en una necesidad social casi tan importante como saber leer o escribir. En la actualidad, todas las actividades cotidianas del ser humano están mediadas por herramientas y procesos tecnológicos y las tendencias apuntan a que esa mediación será cada vez mayor. Solo hay que mirar procesos tales como: comunicación, dinámicas de trabajo, interacciones sociales, trámites legales, bancarios, entre otros, que antes se realizaban de forma manual; hoy se han automatizado a través de plataformas tecnológicas (Cruzate & Graells, 2001).

Para Villamil (2012), los vertiginosos cambios tecnológicos y científicos que afronta nuestra sociedad exige el desarrollo de nuevas competencias por parte del ser humano, para adaptarse y utilizar las nuevas tecnologías en pro de la satisfacción de sus necesidades cotidianas. Una de esas competencias son las digitales, las cuales podríamos definir como la integración de conocimientos, habilidades y aptitudes en el campo de la informática y telemática, para el desempeño de tareas en contextos específicos. Estas nuevas competencias se han convertido en requerimientos transversales en todos los aspectos y escenarios de nuestra sociedad, a tal punto que quienes no desarrollen dichas competencias son considerados como analfabetas digitales.

Si bien el término genérico de ‘competencia’ o su connotación es antiguo, el de ‘competencia digital’ está directamente relacionado con el auge de las tecnologías de la información y las comunicaciones y su uso extendido en diferentes escenarios de la sociedad. A través de una revisión bibliográfica, se encontró que las primeras referencias al término de competencia digital se da en el año 1997, en donde la Organización para la Cooperación y el Desarrollo Económico (OCDE), a través del proyecto denominado DeSeCo (Definition and Selection of Competencies), define a la competencia digital como el uso seguro y crítico de las tecnologías de la sociedad de la información (Pech & Prieto, 2015). Asimismo, Ferreiro (2011) define las competencias digitales como las habilidades para usar recursos apropiados para el tratamiento de la información y la solución de problemas a través del uso crítico y responsable de las Tecnologías de la Información y las Comunicaciones, TIC. Con la importancia que tomó el término de ‘competencias digitales’ en los años siguientes, a nivel internacional encontramos varios referentes de iniciativas que buscan medir o certificar el grado de dichas competencias, las cuales exponen Pech & Prieto (2015) en su trabajo titulado: La medición de la competencia digital e informacional.

En el año 2000, en Francia se implementó un sistema para medir y certificar las competencias en informática e Internet, C2i (Certificado en Informática e Internet) y cuatro años más tarde se implementó el C2i nivel 2 especializado, el cual estaba dirigido a profesores. Esta certificación buscaba verificar y certificar las competencias relacionadas con el uso de recursos tecnológicos, el trabajo en equipo y en red (Université de Limoges, 2000). Por otro lado, en Estados Unidos, el Framework for Information Literacy in Higher Education y el Information Literacy Competency Standards for Higher Education (ILSHE), se presenta como un conjunto de documentos y estándares sobre la competencia informacional y la fijación de indicadores para su medición (Association of College and Research Libraries, 2000).

Otra de las iniciativas con aproximadamente 20 años de experiencia en la formación, evaluación y certificación de competencias digitales es la organización sin ánimo de lucro ECDL (European Computer Driving License), la cual ha establecido un estándar internacional de habilidades informáticas conocido como ICDL (International Computer Driving License). Por ser una entidad sin ánimo de lucro realiza convenios con comunidades, autoridades locales y regionales de diferentes países, para ofrecer sus programas de certificación que incluyen diagnóstico, capacitación y examen de certificación de competencias (ECDL Foundation, 1997). Finalmente, la referencia más reciente es el proyecto DIGCOMP del Joint Research Centre de la Comisión Europea para la identificación y validación de los componentes claves de la competencia digital (Ferrari, 2013). Basado en este marco existen dos instrumentos de diagnóstico de competencias digitales en dos portales específicos: el primero es Ikanos (Gobierno Vasco, 2015), y el segundo, Andalucía es Digital (Junta de Andalucía, 2010); ambos instrumentos permiten conocer el nivel de competencias digitales en cada una de las dimensiones definidas por el Marco Común Europeo.

En el contexto colombiano, si bien no se ha definido un marco específico de competencias digitales y no se cuenta con instrumentos propios del contexto, se puede resaltar la iniciativa: Ciudadanía Digital, del Ministerio de las Tecnologías de la Información y las Comunicaciones (Ministerio de las TIC, 2017), que desde el año 2017 viene ofreciendo un completo ecosistema para la formación y certificación de competencias digitales a los ciudadanos colombianos mayores de 13 años.

Ante el escenario anteriormente descrito surge el siguiente interrogante: ¿cómo realizar un análisis pertinente de competencias digitales en el contexto colombiano, identificando las dimensiones en las que se presentan las mayores dificultades en población estudiantil de educación media? La respuesta más lógica es la utilización de un instrumento estandarizado y validado que dé legitimidad a los resultados. En este sentido, una primera opción era la adopción de una escala elaborada y validada como resultado de un proceso de investigación previo; dicho instrumento debía cumplir con los criterios: en primera instancia, adaptación al contexto colombiano y a la población objeto de estudio; y en segunda instancia, contar con la suficiente robustez de contenido para abarcar el mayor número de dimensiones de competencias digitales. Como segunda opción se planteó la construcción de una nueva escala, tomando como referente estudios previos, sean o no del contexto específico de la investigación, y para lo cual se hacía necesario un proceso de validación del instrumento que garantizara su fiabilidad y validez (Rodríguez, 2014).

El ejercicio investigativo realizado en el estado del arte de instrumentos de valoración de competencias digitales mostró que las escalas disponibles no cumplían con los criterios ya expuestos, por lo que para efectos del presente trabajo se optó por el diseño de un instrumento, partiendo de las dimensiones de competencias digitales propuestas por el proyecto DIGCOMP del Joint Research Centre de la Comisión Europea, cuyo objetivo es la identificación de los elementos o dimensiones necesarios para ser «digitalmente competente», y se constituye en un marco de referencia más amplio para el estudio de las competencias digitales en el cual se establecen 21 competencias agrupadas en cinco áreas (Ferrari, 2013), como se muestra en la Tabla 1:

Tabla 1.
Dimensiones y competencias Marco Común Europeo

Fuente: elaboración propia.

Inicialmente se construyó un primer instrumento con 100 reactivos, abarcando las 21 competencias de las cinco dimensiones mostradas en la Tabla 1. Para esta primera escala, se tomó como referencia la herramienta de autodiagnóstico en competencias digitales diseñada por la junta de Andalucía España y que hace parte del ecosistema de portales: Andalucía es Digital (Junta de Andalucía, 2010). La herramienta de referencia está diseñada bajo los lineamientos de competencias digitales del Marco Común Europeo, pero enfocado al contexto español. Sin embargo, luego de priorizar las competencias más pertinentes para la salida ocupacional del programa de media técnica al que pertenece la población objeto de estudio, se ajustó el instrumento a 36 ítems o reactivos agrupados en 11 dimensiones, como se muestra en la Tabla 2 del presente artículo.

Tabla 2.
Agrupación de los ítems de acuerdo con los lineamientos del modelo teórico

Fuente: elaboración propia.

METODOLOGÍA

Tipo de estudio

El presente proyecto de investigación es cuantitativo descriptivo. El estudio pretende realizar un análisis del constructo de competencias digitales y cada una de sus dimensiones a través del diseño, validación y aplicación de una escala de valoración. La selección de este enfoque de investigación se sustenta en Sampieri, Collado, & Lucio (2014) los cuales expresan: «… los estudios descriptivos son útiles para mostrar con precisión los ángulos o dimensiones de un fenómeno, suceso, comunidad, contexto o situación» (p. 92).

Participantes

La muestra para la validación se conformó por 515 estudiantes de instituciones de educación pública de Medellín que tienen entre sus modalidades de formación la media técnica, concebida como la articulación de la educación media académica con formación profesional en el nivel técnico de una disciplina específica. Entonces, solo participaron estudiantes matriculados en grado noveno, décimo y undécimo. La muestra fue obtenida a partir del muestreo aleatorio simple. De la muestra 278 estudiantes son mujeres (54 %) y 237 son hombres (46 %). La media de edad en la muestra de estudiantes es de 16 años, con una desviación estándar de 0,967. Para la aplicación, la Escala de Valoración de Competencias Digitales (EVCD, por sus siglas en español) se sistematizó a través de una herramienta digital online y se aplicó a los estudiantes, previo consentimiento informado por parte de los rectores de las instituciones y los padres de familia de los estudiantes. Durante el proceso de aplicación de la escala, se socializaron los objetivos del estudio, su importancia y el concepto de competencias digitales, así mismo, se realizó un acompañamiento con cada grupo para garantizar la objetividad de los estudiantes al momento de responder la encuesta y aclarar dudas que se presentaran en la ejecución de la misma. Lo anterior para disminuir el porcentaje de error humano asociado a posibles sesgos dados por malas interpretaciones de los ítems.

Cuestionario

La Escala de Valoración de Competencias Digitales EVCD se construyó a partir de los lineamientos de competencias digitales dados por el Marco Común Europeo como resultado del proyecto DIGCOMP y se estructuró a través de 36 ítems, utilizando una escala Likert con los siguientes niveles de respuesta: 1: Nunca, 2: Casi Nunca, 3: Algunas Veces, 4: Casi Siempre, 5: Siempre. Una vez estructurado el instrumento se digitalizó a través de una herramienta online para su aplicación.

Procedimiento validación del instrumento

La validación del instrumento se llevó a cabo en tres fases:

Fase I: Validación de contenido

La verificación de la validez de contenido es una tarea importante dentro del proceso de validación de un instrumento de medición, ya que tiene como objetivo verificar la pertinencia de los ítems o reactivos del mismo con las dimensiones teóricas u objetos de estudio definidas por el investigador y con las características idiomáticas y culturales de la población a la cuál va dirigido. En la mayoría de los casos, la validación de contenidos se lleva a cabo a través de la técnica de juicio de expertos (Pérez & Martínez, 2008).

Juicio de expertos

Para realizar el juicio de expertos se tuvo en cuenta los siguientes pasos propuestos por Pérez & Martínez (2008, p. 4):

  1. 1. Definición del objetivo: determinar, mediante la Técnica de Juicio de Expertos, la evaluación de contenido que hacen los jueces del instrumento: escala de valoración de competencias digitales, teniendo en cuenta los criterios de suficiencia, claridad, coherencia y relevancia de los reactivos de la escala con el fundamento teórico y las características y el contexto de la población objeto de estudio.
  2. 2. Selección de los jueces: para la selección de los expertos se tuvo en cuenta los criterios de formación académica y experiencia profesional. Se seleccionaron 7 jueces entre los cuales 5 tenían formación y experiencia en el campo de las tecnologías de la información y las comunicaciones y dos en el área de lingüística. Previo verificación de su deseo de participar de la evaluación del instrumento, a los jueces se les envió: formatos de consentimiento informado y confidencialidad, fundamentos teóricos del Marco Común Europeo de competencias digitales, características demográficas del contexto en el que sería aplicado el instrumento, criterios de evaluación, la escala de valoración y la plantilla de evaluación.
  3. 3. Establecer criterios y pesos diferenciales de las dimensiones de la prueba: Los criterios definidos para la evaluación de cada ítem o reactivo fueron:

  • Suficiencia: los ítems que pertenecen a una misma dimensión bastan para obtener la medición de esta. Nota: a todos los ítems pertenecientes a una misma dimensión se les asigna una sola calificación.

  • Claridad: el enunciado del ítem no genera confusión o contradicciones.

  • Coherencia: el ítem tiene relación lógica con la dimensión o indicador que está midiendo.

  • Relevancia: el ítem es importante, es decir, debe ser incluido en el instrumento.

La escala de medición para cada criterio estaba dada por:

1: No cumple 2: Nivel bajo 3: Nivel moderado 4. Nivel alto

4. Calcular la concordancia entre jueces: para este cálculo se consideraron dos estadísticos: Índice de Validez de Contenido (Lawshe, 1975) y el Coeficiente de Validez de Contenido (Nieto, 2002). La información de cada uno de los estadísticos y su interpretación se muestra en la Tabla 3:

Fase II: Validación de constructo

El objetivo de esta fase fue la recolección de datos para cada uno de los ítems del instrumento y su posterior agrupación probabilística, a través de la aplicación de una técnica de estadística multivariada. Para lo cual, se digitalizó el instrumento a través de una herramienta online para facilitar su aplicación, se realizó la socialización del estudio con las instituciones educativas y se capacitó a los docentes que estarían encargados de su aplicación. Los resultados se recolectaban automáticamente en una base de datos que posteriormente fue importada al software SPSS (IBM, 2017) para realizar los cálculos estadísticos.

Tabla 3.
Estadísticos validación de contenido.

Fuente: elaboración propia en consonancia con los lineamientos dados en Pedrosa et al., (2014).

En un primer momento, los datos recolectados a través de la aplicación del instrumento se sometieron a un Análisis Factorial Exploratorio (AFE) con el objetivo de conocer de forma estadística como se agrupan los ítems del instrumento y formar dimensiones a través de la aplicación del procedimiento estadístico de reducción de factores. Para el análisis factorial exploratorio fue necesario, en primera instancia, verificar si existía una fuerte correlación entre los ítems del instrumento que permitiera la creación de dimensiones. Para verificar lo anterior se consideraron las siguientes pruebas estadísticas:

Prueba de esfericidad de Bartlett: esta prueba mide la correlación entre los factores, con H0 (hipótesis nula): los ítem de la escala son independientes entre sí. Y Ha (hipótesis alterna): los ítem de la escala son dependientes (con alta correlación entre ellos que les permite agruparse en uno o más factores de un constructo). Para rechazar la hipótesis nula se necesita un valor de probabilidad menor a 5 % (Hair, Anderson, Tatham, & Black, 1999).

Medida Kaiser-Meyer-Olkin de adecuación de muestreo (KMO): la cual evalúa la fuerza de relación entre ítems a partir de las correlaciones parciales, puede tomar valores entre 0 y 1. En el análisis factorial exploratorio son aceptados los valores superiores a 0,7 (Hair et al., 1999).

En segunda instancia se realiza la extracción de factores. Para este caso se utilizó el método de máxima verosimilitud, ya que se buscaba reducir el número de factores agrupando los ítems de acuerdo con los que presentaran mayor similitud en sus varianzas y teniendo en cuenta que el número de factores no estaba establecido previamente, tomando como criterio factores con auto valores iniciales mayores o iguales a 1(Aráuz, 2015).

Para facilitar la lectura de los resultados en un primer momento, se realiza el cálculo de la matriz de factores y posteriormente la matriz de factores rotados, a través de una rotación ortogonal con el método de rotación Varimax, que maximiza la ponderación de los factores, considerando los ítems mayores a |0,4| para mantener en el instrumento final. Otros autores recomiendan mantener los factores que agrupen 3 o más ítems o aquellos cuya carga factorial sea igual o superior 0.3 (Méndez & Rondón, 2012).

Análisis confirmatorio con ecuaciones estructurales

Para realizar el análisis confirmatorio se utilizó el análisis de ecuaciones estructurales (SEM), la cual es una técnica de gran utilidad para evaluar modelos que establecen relaciones entre variables, permitiendo verificar si las relaciones observables entre dichas variables se ajustan a los datos empíricos. Para simplificar los cálculos se utilizó el software R (Ihaka & Gentleman, 2018), específicamente el paquete Lavaan, el cual permite una escritura sencilla de los modelos y realiza análisis relativamente complejos. Dentro del paquete Lavaan se utilizó la función cfa() la cual está orientada al cálculo de análisis factorial confirmatorio, arrojando los índices o medidas de bondad de ajuste, tanto global como incremental, que permiten verificar si el modelo es compatible con los datos empíricos (Sallan, Fernández, Simo, Lordan, & González, 2012).

Teniendo en cuenta los resultados arrojados por el software una vez se corrió el modelo, los dos primeros índices de bondad de ajuste analizados fueron la raíz de error cuadrático medio de la aproximación (RMSEA, por sus siglas en inglés) y el Residuo Cuadrático Medio (RMSR), los cuales evalúan qué tan bien se ajusta el modelo a la población. Para el primero, se considera un buen ajuste valores Inferiores a .08 (preferiblemente, inferior a .06); y para el segundo, valores inferiores a .08 (mejor mientras más próximo a .00). El otro grupo de índices analizados fue Tucker-Lewis Index (TLI) y Comparative Fit Index (CFI) basados en la comparación del modelo con un modelo nulo. Para estos índices, valores cercanos a 1 (>.90) garantizan que el modelo ajustado es mejor que un modelo nulo (Arias, 2008, p. 10).

Fase III: Análisis de fiabilidad

Criterios establecidos por la psicometría exponen que toda escala de medición debe cumplir con las propiedades de validez o grado en que un instrumento mide lo que pretende medir y la propiedad de fiabilidad en la que el instrumento debe proporcionar resultados similares para diferentes poblaciones o grupos de aplicación (Frías, 2014, p. 1). Con base en lo anterior, en esta fase se procedió a realizar el análisis de fiabilidad del instrumento a través del método de cálculo de coeficiente de consistencia interna. Para ello se realizó el cálculo de Alfa de Cronbach, para el cual se obtienen resultados que pueden oscilar entre 0 y 1. Siendo los valores más cercanos a 1 los que determinan una mayor consistencia interna de los ítems evaluados.

George & Mallery (2003) establecen los siguientes criterios, a tener en cuenta en el momento de analizar los resultados de alfa de Cronbach: Coeficiente alfa >.9 es excelente, Coeficiente alfa >.8 es bueno, Coeficiente alfa >.7 es aceptable, Coeficiente alfa >.6 es cuestionable, Coeficiente alfa >.5 es pobre y finalmente, Coeficiente alfa <.5 es inaceptable (p. 231).

ANÁLISIS DE RESULTADOS

Validez de Contenido

Los resultados obtenidos a través del cálculo de los estadísticos utilizados, así como las conclusiones de la validez de contenidos, se describen en la Tabla 4.

Tabla 4.
Análisis de los resultados de validación de contenidos

Fuente: elaboración propia.

Validez de Constructo Factorial

De acuerdo con los resultados presentados en la Tabla 5, el KMO muy cercano a 1 y el p-valor (sig.) arrojado en la prueba de esfericidad de Bartlett está por debajo del 5 %, esto permite rechazar la hipótesis nula y aceptar la hipótesis alterna: Ha (hipótesis alterna): los ítems de la escala son dependientes (con alta correlación entre ellos que les permite agruparse en uno o más factores de un constructo). Por lo que se puede concluir que existen fuerte correlación entre los ítem del instrumento (Hair et al., 1999).

Tabla 5.
Prueba de KMO y Bartlett

Fuente: resultado Software SPSS.

Análisis Factorial Exploratorio (AFE)

La extracción de factores mostró 6 factores con auto valores iniciales mayores o iguales a 1 (Aráuz, 2015), los cuales explicaban el 54,026 % de la varianza total y todos estos factores agrupaban más de 3 ítems, cuyas cargas factoriales estaban por encima de 0.4 (Méndez & Rondón, 2012). La Tabla 6 muestra la agrupación de ítem alrededor de sus respectivas nuevas dimensiones o factores:

Como podemos observar, en la Tabla 6, 6 de los ítems (R14, R17, R12, R1, R2, R18) no tiene cargas factoriales asignadas, por lo tanto, no cumplen con el criterio de tener cargas factoriales superiores a 0,3. Por esta razón, no se incluyeron en el instrumento final. Así después de análisis factorial exploratorio se pasó de un modelo teórico inicial que tenía 11 dimensiones o factores y 36 ítems, a uno con 6 dimensiones y 30 ítems. La Tabla 7 muestra las nuevas dimensiones con sus respectivos reactivos.

Tabla 6.
Matriz de factor rotado

Fuente: resultado Software SPSS.

Tabla 7.
Agrupación de dimensiones e ítem después del análisis factorial exploratorio

Fuente: elaboración propia.

Análisis Factorial Confirmatorio (AFC)

Los cálculos de ecuaciones estructurales realizados en el paquete Lavaan del software R arrojan como resultados los presentados en las Tablas 8 y 9. En la Tabla 8 podemos observar que los valores obtenidos están dentro de los rangos o criterios de análisis, para concluir que los datos se ajustan al modelo propuesto.

Tabla 8.
Medidas de ajuste global del modelo

Fuente: elaboración propia a partir de los resultados arrojados por el software R.

Por otro lado, la Tabla 9 muestra dos de los índices incrementales de ajuste con valores superiores a .90, resultado a partir del cual se puede concluir que el modelo ajustado es mejor que un modelo nulo.

Tabla 9.
Índices incrementales de ajuste

Fuente: elaboración propia a partir de los resultados arrojados por el software R.

En general, después de analizar los datos arrojados por el análisis factorial confirmatorio, se puede concluir que el modelo se ajusta a los datos empíricos recogidos durante la aplicación del instrumento.

Fiabilidad

Los resultados de los cálculos de fiabilidad realizados en el software SPSS a través de la prueba de Alfa de Cronbach se presentan en la Tabla 10, de la cual se puede concluir que, tanto de forma individual como global, los ítems evaluados presentan un alto grado de consistencia interna cumpliendo con los criterios de fiabilidad.

Tabla 10.
Resultados análisis de fiabilidad

Fuente: elaboración propia a partir de los resultados arrojados por el software SPSS.

Aplicación del instrumento

El instrumento Escala de Valoración de Competencias Digitales (EVCD), una vez validado, se aplicó a una muestra de 32 estudiantes de media técnica del programa diseño e integración de multimedia de la I.E. Finca la Mesa, del municipio de Medellín. Los estudiantes seleccionados pertenecen al grado décimo e iniciaron su proceso formativo de media técnica en el año 2018.

El proceso de aplicación del instrumento se llevó a cabo a través de tres momentos: un primer momento en el que se aplicó la escala como PreTest durante el proceso de inducción de los estudiantes. El objetivo de esta primera aplicación era determinar el grado de competencias digitales (prerrequisitos para su programa formativo) con el que los estudiantes ingresaban al programa. Un segundo momento como PostTest, cuyo objetivo era determinar la incidencia de una estrategia de intervención de aula mediada por ambientes virtuales de aprendizaje que se implementó durante tres meses con los estudiantes para fortalecer las competencias que se identificaron con falencias durante el PreTest; y finalmente, un tercer momento en el que se realizó un análisis estadístico comparativo de los resultados de los momentos 1 y 2.

La Tabla 11 muestra los resultados generales de PreTest y PostTest para la muestra de 32 estudiantes:

Tabla 11.
Resultados globales aplicación instrumento

Fuente: elaboración propia.

Para realizar el análisis estadístico, el primer paso era determinar el principio de normalidad para los resultados del Pretest y del PostTest. Lo anterior, para determinar el tipo de prueba estadística más adecuada, teniendo en cuenta que si ambos grupos de datos tienen distribución normal, entonces lo más recomendable es utilizar una prueba estadística paramétrica para muestras relacionadas, de lo contrario (los grupos de datos no presentan distribución normal), se deben utilizar pruebas estadísticas no paramétricas para muestras relacionadas (González, Escoto, & Chávez, 2017).

Para verificar el principio de normalidad se plantearon las siguientes hipótesis: para el PreTest se consideró como hipótesis nula H0: la muestra pre-test proviene de una población con distribución normal; y como hipótesis alternativa Ha: la muestra pre-test no proviene de una población con distribución normal de forma similar se redactaron las hipótesis para el PostTest. Aceptando la hipótesis nula cuando el p-valor resultado de la prueba estadística es mayor a 0.05 (González et al., 2017).

Una vez definidas las hipótesis se cargaron los datos en el software SPSS y se consideraron los siguientes criterios para seleccionar el tipo de prueba estadística que aplicaba para el tamaño de muestra en cuestión. Así, se tomarían en cuenta los resultados del estadístico Kolmogorov-Smirnov para muestras grandes (>30 individuos) y para los resultados del estadístico Shapiro-Wilk para muestras pequeñas (< 30 individuos) (González et al., 2017). Los resultados de la prueba de normalidad se muestran en la Tabla 12.

Tabla 12.
Prueba de normalidad PreTest y PostTest

Fuente: resultados software SPSS.

Dado que tanto en el PreTest como en el PostTest el p-valor (Sig.) es >= 0.05, se puede concluir que ambas muestras provienen de población con distribución normal, por lo tanto, se puede realizar una comparación de muestras paramétrica a través de una prueba T-Studend (González et al., 2017), para la cual se tuvo en cuenta como hipótesis nula H0: No hay diferencia significativa en el nivel de competencias digitales de los estudiantes de media técnica antes y después de la estrategia de intervención, y como hipótesis alterna Ha: Hay diferencia significativa en el nivel de competencias digitales de los estudiantes de media técnica antes y después de la estrategia de intervención. Rechazando la hipótesis nula cuando el p-valor resultado de la prueba es menor o igual a 0.05. La Tabla 13 muestra los resultados de la aplicación de la prueba T-Student.

Tabla 13.
Resultados prueba T-Student

Fuente: resultados software SPSS.

Dado que P-valor=0.000, se rechaza H0 y se acepta Ha: Hay diferencia significativa en el nivel de competencias digitales de los estudiantes de media técnica antes y después de la estrategia de intervención. Por lo cual, se concluye que la estrategia e intervención de aula, bajo el enfoque de secuencias didácticas y mediadas por ambientes virtuales de aprendizaje insidió positivamente en el desarrollo de competencias digitales en los estudiantes de media técnica. De hecho, los estudiantes en promedio mejoraron su valoración de competencias digitales de 2.43 a 3.42, en un periodo aproximado de 3 meses.

CONCLUSIONES

A través del proceso de validación de la escala de Valoración de Competencias Digitales (EVCD), se pudo verificar los criterios psicométricos de validez y fiabilidad, lo cual arrojó como resultado un nuevo instrumento de medición pertinente para el contexto colombiano. El nuevo instrumento tiene seis dimensiones y 30 reactivos.

La fase de validez de contenido a través del juicio de expertos permitió realizar los ajustes en cuanto a terminología y nivel de lenguaje adecuado para el contexto específico de aplicación mediante la validación de los criterios de suficiencia, claridad, coherencia y relevancia, soportados en los cálculos de los diferentes índices de validación de contenido.

La fase de validación de constructo permitió por medio de los análisis factoriales, exploratorio y confirmatorio obtener una reducción de dimensiones y una nueva agrupación de ítem en torno a las mismas, así como la verificación del ajuste del modelo a los datos empíricos.

La fase de análisis de fiabilidad arrojó una fiabilidad alta que permite concluir que los resultados fruto de la aplicación del instrumento serán consistentes independientemente que cambie la población de estudio.

La aplicación del instrumento ya validado en una muestra específica permitió medir las competencias digitales de manera más precisa y confiable, con lo cual es posible evaluar de manera veraz el impacto de una estrategia de intervención de aula orientada al desarrollo de competencias digitales.

El nuevo instrumento validado podrá usarse dentro del contexto colombiano para realizar procesos de diagnóstico de competencias digitales, orientados a identificar las dimensiones con falencias en una población específica, para planear estrategias formativas pertinentes y contextualizadas. De igual manera, el instrumento puede ser utilizado por la comunidad académica colombiana en procesos de investigación que involucren competencias digitales, ya que reduciría los tiempos de investigación y permitiría que los investigadores se concentren en el análisis e interpretación de los resultados.

Como una recomendación en el uso del instrumento presentado en este artículo, se sugiere que la aplicación se realice con acompañamiento y supervisión, con el fin de resolver las dudas que se generen en la población objeto de aplicación; reducir el error humano asociado; y contextualizar los individuos en cuanto a las dimensiones conceptuales que se pretenden analizar.

Es importante establecer que el nuevo instrumento validado tiene sus fundamentos en competencias digitales genéricas definidas en el Marco Común Europeo para competencias digitales, sin embargo, cabe aclarar que el proceso de validación ejecutado para la presente investigación se realizó priorizando aquellas dimensiones de las competencias digitales pertinentes para las necesidades específicas del contexto colombiano en el momento de ejecución del trabajo investigativo. En este sentido y considerando los vertiginosos cambios de la actual sociedad de la información y el conocimiento, es posible que el instrumento pierda vigencia y/o pertinencia, por lo que su aplicación en otras investigaciones debe evaluarse teniendo en cuenta las variables espacio temporales específicas para cada caso.

REFERENCIAS

Aráuz, A. F. (2015). Aplicación del análisis factorial confirmatorio a un modelo de medición del rendimiento académico en lectura. Ciencias Económicas, 33, 39–66.

Arias, B. (2008). Desarrollo de un ejemplo de análisis factorial confirmatorio con LISREL, AMOS y SAS. Presentado en Seminario de Actualización en Investigación sobre Discapacidad SAID, 2008. España: Universidad de Valladolid.

Association of College and Research Libraries. (2000). Information Literacy Competency Standards in Higher Education. ACRL. Recuperado de https://alair.ala.org/handle/11213/7668

Cruzate, J. M., & Graells, P. M. (2001). La revolución educativa en la era de Internet (1a Ed.). España: Wolters Kluwer Educación.

ECDL Foundation. (1997). European Computer Driving Licence. Recuperado de http://ecdl.org/

Ferrari, A. (2013). DIGCOMP: A Framework for Developing and Understanding Digital Competence in Europe (Scientific and Policy Report). European Commission Joint Research, Centre Institute for Prospective, Technological Studies. Recuperado de http://ftp.jrc.es/EURdoc/JRC83167.pdf

Ferreiro, A. A. (2011). El desarrollo del concepto de competencia digital en el currículum de las enseñanzas obligatorias de Galicia. Innovación Educativa, 21, 151–159.

Frías, D. (2014). Apuntes de SPSS. Universidad de Valencia. Recuperado de https://www.uv.es/friasnav/ApuntesSPSS.pdf

George, D., & Mallery, P. (2003). SPSS for Windows step by step: A simple guide and reference (4a ed.). Boston: Allyn & Bacon.

Gobierno Vasco. (2015). IKANOS (Versión 6). España. Recuperado de http://www.innova.euskadi.eus/informacion/el-proyecto-digcomp/v62-ikanoscd/es/

González, F., Escoto, M., & Chávez, J. (2017). Estadística aplicada en psicología y ciencias de la salud (1a ed.). Mexico: Manual Moderno.

Hair, J., Anderson, R., Tatham, R., & Black, W. (1999). Análisis multivariante (5a Ed.). Madrid: Prentice Hall Iberia.

IBM. (2017). IBM SPSS Statistics (Versión 25). Armonk, Nueva York: International Business Machines Corporation.

Ihaka, R., & Gentleman, R. (2018). The R Project for Statistical Computing (Versión 3.4.4). Recuperado de https://www.r-project.org/

Junta de Andalucía. (2010). Digcomp: Herramienta de autodiagnóstico en competencias digitales. España. Recuperado de http://www.digcomp.andaluciaesdigital.es/

Lawshe, C. (1975). A quantitative approach to content validity. Personnel Psychology, 28(4), 563–575.

Méndez, C., & Rondón, M. (2012). Introducción al análisis factorial exploratorio. Revista Colombiana de Psiquiatría, 41, 197–207.

Ministerio de las TIC. (2017). Ciudadanía Digital. Colombia.Recuperado de https://www.ciudadaniadigital.gov.co

Nieto, R. H. (2002). Contributions to Statistical Analysis. Venezuela: Universidad de los Andes.

Pech, S. J., & Prieto, M. E. (2015). La medición de la competencia digital e informacional. en Desarrollo de las competencias para el Siglo 21. Recuperado de https://www.researchgate.net/publication/303075873_La_medicion_de_la_Competencia_Digital_e_Informacional

Pedrosa, I., Álvarez, J. S., & Cueto, E. G. (2014). Evidencias sobre la validez de contenido: avances teóricos y métodos para su estimación. Acción Psicológica, 10(2), 3–20.

Pérez, J. E., & Martínez, Á. C. (2008). Validez de contenido y juicio de expertos: una aproximación a su utilización. Avances en Medición, 6(1), 27–36.

Rodríguez, A. M. S. (2014). Diseño y validación de instrumentos de medición. Diálogos, 8(13), 19–40.

Sallan, J., Fernández, V., Simo, P., Lordan, O., & González, D. (2012). Análisis de modelos de ecuaciones estructurales mediante el paquete Lavaan. Presentado en 6th International Conference on Industrial Engineering and Industrial Management. XVI Congreso de Ingeniería de Organización. España: Universitat Politécnica de Catalunya.

Sampieri, R. H., Collado, C. F., & Lucio, M. del P. B. (2014). Metodología de la investigación (Sexta Edición). McGraw-HILL.

Université de Limoges. (2000). Certificat Informatique et Internet. Limoges, France. Recuperado de http://c2i.unilim.fr/

Villamil, P. C. G. (2012). Estado del arte de la conceptualización sobre competencias digitales en educación formal en América Latina (Trabajo de grado). Pontificia Bogotá: Universidad Javeriana. Recuperado de https://repository.javeriana.edu.co/handle/10554/7937

Información adicional

Este artículo se escribe dentro del marco del trabajo de grado: Validación y aplicación de una escala de valoración de competencias digitales para analizar la incidencia de una intervención de aula mediada por ambientes virtuales de aprendizaje. El cual se presenta para optar por el título de Magister en Ciencias: Innovaciones en Educación del Instituto Tecnológico Metropolitano (ITM). Medellín-Colombia.

Enlace alternativo



Buscar:
Ir a la Página
IR