Servicios
Descargas
Buscar
Idiomas
P. Completa
“La solución al oligopolio de publicaciones científicas es reinvertir en plataformas nacionales que nos pertenezcan colectivamente”. Entrevista con Vincent Larivière
Lucía Céspedes; Santiago Liaudat
Lucía Céspedes; Santiago Liaudat
“La solución al oligopolio de publicaciones científicas es reinvertir en plataformas nacionales que nos pertenezcan colectivamente”. Entrevista con Vincent Larivière
“The solution to the oligopoly of scientific publications is to reinvest into national platforms that we collectively own”. Interview with Vincent Larivière
“A solução para o oligopólio das publicações científicas é reinvestir nas plataformas nacionais que possuímos coletivamente”. Entrevista com Vincent Larivière
Ciencia, Tecnología y Política, vol. 8, núm. 14, 2025
Universidad Nacional de La Plata
resúmenes
secciones
referencias
imágenes

Resumen: Entrevista con Vincent Larivière, experto reconocido mundialmente en temas de acceso abierto, publicaciones científicas, multilingüismo y sociología de la ciencia. Doctor en Ciencias de la Información por la Universidad McGill, detenta la Cátedra UNESCO sobre la Ciencia Abierta y es co-titular de la Cátedra de investigación de Québec sobre la descubrabilidad de contenidos científicos en francés [Chaire de recherche du Québec sur la découvrabilité des contenus scientifiques en français]. También es profesor en la Escuela de Bibliotecología y Ciencias de la Información de la Universidad de Montréal, Director Científico del consorcio editorial Érudit, y vicedirector científico del Observatorio de Ciencia y Tecnología de la Universidad de Québec en Montréal. En esta entrevista, nos enfocamos en las publicaciones científicas, la evaluación y los indicadores de CyT, y las propuestas de la ciencia abierta.

Palabras clave: comunicación académica,publicaciones científicas,infraestructuras de investigación,oligopolio editorial,evaluación de la ciencia,ciencia abierta.

Abstract: Interview with Vincent Larivière, world-renowned expert in open access, scientific publishing, multilingualism and sociology of science. PhD in Information Science from McGill University, he holds the UNESCO Chair on Open Science and co-holds the Chaire de recherche du Québec sur la découvrabilité des contenus scientifiques en français. Vincent is also professor at the School of Library and Information Science at the Université de Montréal, Scientific Director of the Érudit publishing consortium and deputy scientific Director of the Observatory of Science and Technology at the Université de Québec à Montréal. In this interview, we focus on the issue of scientific publications, the question of science and technology assessment and indicators, and proposals for open science.

Keywords: scholarly communication, scientific publishing, research infrastructures, editorial oligopoly, research assessment, open science.

Resumo: Entrevista com Vincent Larivière, especialista de renome mundial em acesso aberto, publicação científica, multilinguismo e sociologia da ciência. Doutor em Ciência da Informação pela Universidade McGill, ele é titular da Cátedra UNESCO de Ciência Aberta e co-titular da Cátedra de pesquisa do Québec sobre a descobrilidade dos conteúdos científicos em francês [Chaire de recherche du Québec sur la découvrabilité des contenus scientifiques en français]. Vincent também é professor da Escola de Biblioteconomia e Ciência da Informação da Universidade de Montreal, diretor científico do consórcio de publicações Érudit e vice-diretor científico do Observatório de Ciência e Tecnologia da Universidade de Quebec em Montreal. Nesta entrevista, enfocamos o tema das publicações científicas, a questão da avaliação e dos indicadores de ciência e tecnologia e as propostas para a ciência aberta.

Palavras-chave: comunicação acadêmica, publicação científica, infraestruturas de pesquisa, oligopólio editorial, avaliação da ciência, ciência aberta.

Carátula del artículo

Entrevista

“La solución al oligopolio de publicaciones científicas es reinvertir en plataformas nacionales que nos pertenezcan colectivamente”. Entrevista con Vincent Larivière

“The solution to the oligopoly of scientific publications is to reinvest into national platforms that we collectively own”. Interview with Vincent Larivière

“A solução para o oligopólio das publicações científicas é reinvestir nas plataformas nacionais que possuímos coletivamente”. Entrevista com Vincent Larivière

Lucía Céspedes
Érudit, École de bibliothéconomie et des sciences de l'information, Université de Montréal, Canadá
Santiago Liaudat
Laboratorio de Estudios en Cultura y Sociedad, Facultad de Trabajo Social, Universidad Nacional de La Plata, Argentina
Ciencia, Tecnología y Política
Universidad Nacional de La Plata, Argentina
ISSN: 2618-2483
ISSN-e: 2618-3188
Periodicidad: Semestral
vol. 8, núm. 14, 2025

Recepción: 17 marzo 2025

Aprobación: 08 mayo 2025


¿Cómo funciona el modelo de negocios de las editoriales académicas comerciales? ¿Por qué es tan rentable?

Es rentable porque estamos lidiando con dos tipos de capital: simbólico y económico. Como comunidad, básicamente estamos pagando muchísimo dinero a cambio de recibir capital simbólico de las revistas académicas. Históricamente, esas revistas le pertenecían a investigadores, sociedades y universidades. Con el arribo de la era digital, estas entidades sin fines de lucro se encontraron incapaces de hacer la transición de la imprenta a la digitalidad. Ya existían muchas editoriales comerciales en los 90s, pero no tenían el control que tienen hoy. Lo que ocurrió entonces es que nuestra comunidad hizo acuerdos con estas empresas para poder hacer ese paso del papel a lo digital. Algo importante de recordar es que, dado que estas revistas fueron creadas y eran propiedad de nuestras sociedades científicas, invertir en ellas era natural. Se invertía en esas organizaciones porque están ahí para el bien común. Están ahí para difundir el conocimiento que creamos colectivamente. Servir voluntariamente a estas organizaciones tenía sentido desde el punto de vista de los científicos. Desde el punto de vista de las bibliotecas, también tenía sentido pagarles tal vez más de los costos reales, porque en la era impresa, las revistas eran bastante caras. Existía esta visión de que al comprar o suscribirse a determinada revista, estábamos en realidad apoyando una sociedad científica. Entonces ese dinero se mantenía en la familia. Cuando las revistas fueron adquiridas por editoriales comerciales, los académicos continuaron dándoles su tiempo de manera gratuita. Las bibliotecas continuaron dándoles más y más dinero. Pero ese dinero ya no se quedaba en la familia, se iba a los accionistas de esas empresas. Entonces este modelo es rentable porque usa a los investigadores como mano de obra gratuita en tanto que autores y evaluadores. Paga muy mal a los editores que toman decisiones… en caso de que les paguen. Los editores de revistas reciben montos simbólicos. Pero los académicos siguen haciéndolo porque las revistas y las editoriales controlan la circulación de capital simbólico en el campo científico. Esto es una construcción social, pero mientras no encontremos otra manera de distribuir ese capital simbólico o no reclamemos el control sobre nuestras revistas —que podrían seguir siendo los vectores de circulación del capital simbólico— vamos a continuar pagando muchísimo dinero. ¡Sus márgenes de ganancia son descomunales! Se encuentran entre los más altos y son proporcionalmente mayores que los de cualquier otro tipo de industria a nivel mundial. Esto, por supuesto, solo es posible cuando no se les paga a ninguno de los actores involucrados y se le está vendiendo un producto a las personas que realmente hicieron el trabajo.

Usted identificó esos actores y accionistas en un artículo de 2015, donde junto con sus coautores demostraron la existencia de un “oligopolio de publicaciones científicas”. En un trabajo más reciente, también mostraron que este oligopolio se está consolidando y actualmente se está expandiendo a la publicación en acceso abierto. ¿Cuáles son las tendencias actuales en este sentido?1

Las editoriales comerciales entienden el mundo editorial muy bien, es normal. Cuando el movimiento por el acceso abierto empezó a despegar, diría que hace unos 15 años, querían participar de alguna manera. Se dispusieron, entonces, a volcarse al acceso abierto pero no a reducir sus márgenes de ganancia. Lograron tomar control de una gran parte del debate acerca del acceso abierto convenciendo a los gobiernos de que pagar por publicar era ahora la manera de hacer accesible la investigación. Parten de un argumento sólido: publicar cuesta dinero, con lo cual todo el mundo estará de acuerdo. Pero usaron este hecho para inventar el concepto de “costos de procesamiento de artículos”,2 que ya existía en el mundo impreso. En física y matemática de hecho era caro imprimir ecuaciones y gráficos, por lo que esas disciplinas ya estaban acostumbradas a pagar por publicar. Pero las editoriales reformularon el concepto para ganar dinero con la publicación en acceso abierto y no disminuir sus ingresos. Hace años, entonces, que han estado lucrando desde ambos lados, desde los autores y las bibliotecas. Esto ha cambiado un poco últimamente con los acuerdos transformativos,3 pero sus ganancias no se han visto afectadas debido al acceso abierto.




Foto: gentileza Vincent Larivière

¿Cómo afectó al movimiento de acceso abierto el modelo basado en APC, que coloca el costo económico sobre los autores?

En cierto sentido, ha sido un fracaso del movimiento por el acceso abierto. Tampoco me siento tan cómodo hablando de “movimiento por el acceso abierto” porque no creo que se trate de un movimiento. Creo que las cosas son más complejas. La forma en que Europa lo ha manejado es diferente de la forma en que América Latina lo viene haciendo. Pero se trata de un fracaso de al menos parte del movimiento por el acceso abierto, principalmente en el norte, donde, para la mayoría de los investigadores, acceso abierto básicamente es sinónimo del pago de APC. Es un triunfo para las editoriales comerciales que han logrado adecuar el concepto a su idea de éste. Están dominando el discurso en gran medida. También hemos visto el surgimiento de editoriales comerciales puramente abiertas, como Frontiers, MDPI, y, en menor medida, Hindawi. Son editoriales comerciales que publican 100% en acceso abierto y por ende solo pueden generar ingresos a través de las tasas de procesamiento de artículos. Lo cual, por supuesto, lleva a un enorme conflicto de intereses en este contexto. Dado que esas revistas son creadas para que las empresas ganen dinero, no tienen ningún incentivo para rechazar artículos. Esto es diferente en un mundo donde necesitaras lectores para subsistir, porque tendrías que publicar material de calidad. En un mundo basado en las APC solo necesitas autores. No necesitas lectores para existir, desde un punto de vista económico.

Las empresas que componen el oligopolio ya no son meras editoriales, sino que actualmente ofrecen una amplia gama de servicios, desde la gestión de las publicaciones a estadísticas, metadatos e información sobre la ciencia. ¿Cuáles son las consecuencias de esta integración y privatización de los medios de producción de conocimiento?

Hace veinte años, una empresa como Elsevier se dio cuenta de que los investigadores estaban usando su Web of Science para encontrar artículos en su plataforma y dijeron “es absurdo, tenemos todos los metadatos”. Entonces crearon Scopus como una herramienta de búsqueda de literatura. Luego pensaron “deberíamos tener un servidor de preimpresiones”, y compraron SSRN.4 Hoy en día, básicamente están en todo el ecosistema, lo que les permite generar ingresos en todo nivel y establecer acuerdos con las universidades. Cuando les compras un paquete completo de revistas, te facilitan diferentes herramientas de manera supuestamente gratuita, lo cual fortalece su control sobre el sistema. Esto engloba otro problema. Una empresa como Elsevier difunde artículos, posee las herramientas para encontrar artículos, y también ejerce cierta vigilancia. Han habido casos bien documentados donde una de estas editoriales censuró información para lectores chinos a fin de que no pudieran acceder a artículos sobre temas controversiales. El control de la información y de los datos referidos a nuestro uso de la información es enorme. Es un problema doble: no tenemos control sobre nuestra producción, que estamos entregando gratis, y también, podría decirse, de estar siendo monitoreados en nuestro uso de esa información. No sé qué se puede pensar positivamente sobre eso porque, de nuevo, en muchos sentidos, no los necesitamos. Nos necesitan a nosotros más de lo que los necesitamos a ellos. El modelo de preimpresiones que algunos campos han estado usando y que casi todos usamos durante la pandemia puede funcionar. Todos somos evaluadores en cierta medida. Todos podemos evaluar nuestros manuscritos. Y aún así nos aferramos a este sistema de prestigio que no ayuda a nadie. Estamos en una pequeña paradoja en la cual las editoriales comerciales controlan más y más revistas valiosas, revistas con altos índices de impacto. En un trabajo que está en revisión, analizamos el control empresarial en dos bases de datos: Web of Science y Dimensions.5 Una es una base de datos restringida que solo indiza aquellas que consideran las revistas más importantes y les computan un factor de impacto; la otra trata de indizar todo lo posible. Lo que vemos es que en Web of Science el lugar ocupado por los cinco principales grupos editoriales está creciendo en los últimos años. Es decir, las revistas publicadas por Elsevier, Springer, Taylor & Francis, Sage y Wiley se encuentran más y más presentes; mientras que en Dimensions se da lo opuesto. Esto significa que otras revistas existen, que las alternativas existen. Hay espacios de publicación en los que podemos invertir, y hay un motivo por el cual la comunidad no lo hace tanto como podría: porque las revistas todavía son los vectores de capital simbólico, y las revistas publicadas con fines de lucro son las más prestigiosas. De nuevo, esto es una construcción. Digamos que mañana a Nature se le ocurriera crear una nueva revista de ciencias de la información o sociología. Le tomaría, digamos, un año a esa revista convertirse en la principal revista de su campo. Debido a su prestigio, recibiría los mejores artículos y se convertiría en la mejor revista. Se trata de una profecía autocumplida donde se pone miel para atraer a los científicos y pronto todos están yendo hacia allí. Ese ejemplo que doy con Nature es algo que hemos visto en varias disciplinas, porque Nature ha creado una marca y la está usando para lanzar revistas. También han entendido eso muy bien.

¿Cuál es la alternativa a este proceso de concentración y vigilancia?

Necesitamos bases de datos nacionales, pero también infraestructuras internacionales, descentralizadas, y de propiedad colectiva. Las bases de datos nacionales sólo pueden ser tan buenas y confiables como las naciones que las crean. Lo que está ocurriendo en los Estados Unidos me hace reflexionar sobre cómo debemos pensar a estas infraestructuras nacionales. La comunidad médica ha contado con PubMed por décadas para su documentación.6 Hoy en día, PubMed está cerca de ser censurada. El sitio web de los Institutos Nacionales de la Salud en este momento está siendo censurado; cuando se buscan palabras clave específicas, no figura ningún resultado pese a que sabemos que esas cosas están allí. ¿Qué sigue? ¿Censurar PubMed? ¿Dar de baja PubMed porque es un gasto? Entonces, necesitamos pensar en infraestructuras colectivas. Pero necesitan ser descentralizadas, no pueden estar bajo el control de un solo país. Deben ser ejercicios multilaterales con réplicas en todas partes. Considero que hay un rol para las organizaciones internacionales, sea la UNESCO, la OCDE en cierta medida, tal vez el Consejo Internacional de Ciencias, organizaciones con las que los investigadores estén dispuestos a comprometerse porque esas organizaciones trabajan por el bien común, y desarrollar en ellas los espacios para poder tener estos debates internacionales. Muchas de estas organizaciones también han desarrollado formas de dar una voz a quienes no la tienen, o al menos mantener algún nivel de multilingüismo en su seno. Creo que es un buen punto de partida hacia un sistema científico internacional más igualitario.

En ese sentido, hay iniciativas colectivas como Érudit en Canadá, o SciELO, Redalyc y Latindex en América Latina.7 ¿Estas infraestructuras colaboran a reducir la dependencia hacia las plataformas comerciales?

Sí, pero deben contar con suficiente apoyo gubernamental. Creo que en Canadá y en Quebec hay un fuerte apoyo tanto del gobierno como de la comunidad. Pero aquí es donde las plataformas se yuxtaponen con la evaluación de la investigación y las lenguas de difusión. Los países no anglófonos son mucho más sensibles a estos factores. Aquí todavía hay una gran parte de investigadores que publican en francés. Lo mismo se da en las plataformas de habla castellana que mencionaste. Pero las publicaciones en estas plataformas todavía no son vistas como las investigaciones más importantes, porque si alguien descubre algo que considera muy relevante, intentará publicarlo en una revista percibida como internacional… lo cual, en la mayoría de los casos, significa estadounidense o británica. Las revistas tienen una nacionalidad en cierto sentido. Revistas como Science, por ejemplo, son vistas como internacionales pero el 90% de sus autores son estadounidenses. Volviendo al tema de las plataformas nacionales, tienen que ser debidamente apoyadas por los gobiernos, pero también los científicos tienen que apoyarlas e invertir en ellas. Hay quienes lo hacen, no lo suficiente a mi entender. Esto debe ser valorado por las universidades. La cuestión de los incentivos es crucial. Los investigadores reaccionan a lo que consideran importante, pero también a lo que los gobiernos estiman que es importante. Así que si los gobiernos desarrollaran políticas de evaluación que colocan a las publicaciones nacionales en el mismo nivel que las otras publicaciones, eso fortalecería nuestras infraestructuras colectivas. A fin de cuentas, lo que tenemos que hacer es retomar el control sobre nuestros medios de difusión de la investigación. Lo tercerizamos en la década de 1990 y necesitamos recuperarlo.




Foto: gentileza Vincent Larivière

Mencionó la evaluación de la investigación. Hay indicadores producidos y comercializados por Web of Science o Scopus que ya están muy arraigados en las políticas de evaluación nacionales o institucionales. ¿Qué influencia tienen esas métricas en el establecimiento de agendas de investigación, especialmente en países periféricos?

No deberían tener influencia alguna, pero están teniendo una enorme influencia. El mayor tema es el factor de impacto de las revistas. Tenemos que recordar de dónde surgió. El factor de impacto se creó para ayudar al personal de las bibliotecas a desarrollar series de publicaciones, para decidir a qué revistas suscribirse. Hace treinta años que se convirtió en más que eso debido al avance de la edición digital, y se volvió un indicador para evaluar investigadores. Es una cuestión compleja. Las evaluaciones bibliométricas pueden ser útiles para entender el tipo de investigación científica que se está haciendo, brindando una mirada general. Es interesante usar estas herramientas para evaluar políticas a nivel institucional, siempre entendiendo sus fortalezas y debilidades. Pero cuando se trata de evaluar a científicos individuales, creo que hay consenso en que son problemáticas. Sin embargo, es muy difícil dejarlas. En algunos países, estas herramientas ayudan a, digamos, combatir el nepotismo en la academia e iniciativas de ese tipo. Al externalizar la medición del impacto en lugar de tener un comité de pares evaluadores, se obtienen datos desde un punto de vista relativamente objetivo. Soluciona algunos problemas, pero a la vez causa todas estas otras situaciones donde las publicaciones son lo único que termina contando. Con esto, estamos perdiendo los motivos por los que nos dedicamos a la investigación. Vengo enseñando la evaluación de la ciencia hace alrededor de veinte años aquí en Quebec, hablando a mis estudiantes sobre el factor de impacto. Y cuando presentaba estos temas hace veinte años, la mayoría de los estudiantes no estaba al tanto, no sabía lo que era el factor de impacto. Hoy en día, hasta estudiantes de maestría son conscientes de lo que significa el factor de impacto. Saben que tienen que publicar en buenas revistas. No creo que eso sea un progreso. Cuando la gente comienza a investigar, lo hacen porque les parece interesante. Quieren curar una enfermedad, quieren desafíos, quieren sentirse estimulados. No buscan publicar en una revista de alto factor de impacto, eso no es lo que conduce a nadie hacia la ciencia. Pero muy pronto el sistema los empuja en esa dirección, con múltiples consecuencias. Estamos hablando de las mentes más brillantes que tenemos, que deberían poder investigar sobre las cosas que les parecen más interesantes e importantes. En cambio, desafortunadamente, estamos agregando una capa que hace que trabajen no en las cosas más importantes, sino en las cosas que piensan les permitirán publicar en la mejor revista. Así no debería funcionar la ciencia. Los incentivos a la investigación son cruciales y muy delicados, porque derivan en una situación donde se pierde el interés en investigar sobre las comunidades que nos necesitan. Si trabajas en una universidad determinada, la comunidad a su alrededor debería beneficiarse de tus investigaciones. Pero si lo que quieres es publicar en una revista de alto impacto, y para lograrlo debes dedicarte a algún problema de investigación europeo, entonces no estás contribuyendo a la sociedad que de hecho lo necesita. Necesitamos cambiar el valor que le atribuimos a la ciencia nacional, considerar que es más importante o al menos igual de importante que la ciencia que tiene repercusiones internacionales. Esa es la crítica a lo que consideramos “internacional”, que casi siempre son problemas de investigación estadounidenses o eurocéntricos.

Hay algunas iniciativas —por ejemplo, Latmétricas en América Latina8— que apuntan a producir nuevos indicadores y métricas, de relevancia local y que midan aquello que necesita ser medido en ciertos contextos. ¿Qué mecanismos similares serían interesantes para explorar?

Me encuentro un poco dividido en el sentido que no creo que necesitemos más indicadores. No conozco estos en particular, por lo que no puedo juzgar su calidad. Es muy difícil crear indicadores y tal vez hayan encontrado una forma de hacerlo; ciertamente espero que así sea. Pero creo que necesitamos volver a una evaluación más holística de las personas, entender sus trayectorias, su contribución a la ciencia y la sociedad. No veo cómo esto puede lograrse si no es a través de la evaluación por pares. Por supuesto que me encantan los datos. Pero los datos no significan nada sin un entendimiento integral de la trayectoria individual o grupal, vista como un todo relativamente coherente. No conozco los detalles que mencionas, pero definitivamente necesitamos tener medios para comprender la contribución de los científicos a la sociedad. A veces eso puede hacerse a través de cuantificaciones, otras cosas pueden analizarse a través de una evaluación por pares.

En América Latina actualmente se debate sobre reformar la evaluación de la ciencia,9 pero todavía nos basamos en métodos estándar y cuantitativos. ¿Piensa que este debate es diferente en los países centrales?

El caso que mejor conozco es el de Canadá, donde no se dio una fuerte cultura de evaluación cuantitativa. Somos un país donde la educación superior no es competencia nacional sino provincial, y las universidades son totalmente independientes unas de otras. Entonces, cada una desarrolló su propia forma de evaluar a sus investigadores, y ninguna ha implementado un mecanismo cuantitativo. Todo se hace a través de evaluación por pares. Por supuesto que en esas evaluaciones tendrás alguien que diga “esta persona es una gran académica porque ha publicado 25 artículos en los últimos años, qué extraordinario”, pero sigue siendo una apreciación cualitativa. Hay números involucrados, pero no tenemos una lista de criterios o indicadores ponderados con los que digamos “su puntaje final es 9 de 10, está aprobada”. Somos bastante afortunados de tener un sistema así. Lo que complejiza las cosas aún más es que, dado que las universidades son independientes, en algunas de ellas el personal está agremiado y en otras no. Aquí, en la Universidad de Montreal, tenemos un gremio. Como profesor titular, sabes cuánto vas a ganar cada año porque todo se negocia a través de acuerdos colectivos. Al otro lado de la montaña, en la Universidad McGill, no tienen sindicato, tienen evaluaciones anuales que pueden incluir bibliometría de manera subliminal, como mencioné. Probablemente eso deriva en más competencia y más efectos adversos ligados a las culturas de evaluación. Mi punto es que cada país ha desarrollado sus propios mecanismos de evaluación. Creo que los canadienses tienen sentido. Las agencias de financiamiento federales tampoco se basan en aspectos bibliométricos. Hay algunos programas que en una época pedían a los investigadores que proporcionaran su índice H o cosas así. Creo que dejaron de hacerlo por la gran oposición que generaron. ¿Índice H? ¿En cuál base de datos? ¿En qué periodo? Quisiera contrastar eso con varios países que han implementado mecanismos de evaluación, pienso en Bélgica, Sudáfrica, incluso algunos países nórdicos, donde parte del financiamiento recibido por las universidades se basa en datos bibliométricos. Los incentivos para publicar son enormes. Las universidades podrían perder fondos si no publican. Eso no pasaría aquí. Sin embargo, me parece que todas las universidades están en la misma situación respecto de los rankings universitarios, que tal vez no nos afectan directamente a nivel gubernamental, pero tienen un efecto muy directo vis à vis la atracción de estudiantes internacionales. No todas las universidades dependen de estudiantes internacionales en la misma medida, pero todas lo hacen hasta cierto punto. Es un fenómeno micro donde todo el mundo se ve afectado por quienes se arrogan la capacidad de jerarquizar la ciencia. Si tenemos una unidad académica con seis personas, lo que hacen es estudiar todos los datos de los rankings para analizar los resultados y tratar de buscar la manera de que los datos nos hagan ver lo mejor posible o, como dirían, que nos hagan ver tan buenos como somos. Estos rankings tienen un fuerte efecto de uniformización sobre la educación superior que es muy problemático.

Venimos hablando al nivel de los países. Ahora bien, ¿qué hay de las diferencias entre disciplinas? Estas evaluaciones bibliométricas, cientométricas, ¿afectan por igual a las disciplinas STEM10 y a las humanidades y ciencias sociales?

Me alegra que lo mencionen porque ocurre el mismo efecto de uniformización. Para un científico social que escribe libros, nada de eso contará en los rankings o en una evaluación. Eso crea un incentivo para que dejes de realizar el tipo de investigación que deriva en un libro y en cambio pienses “debo trabajar para tener resultados en el corto en vez de en el largo plazo”. Nuestros sociólogos o historiadores, tradicionalmente escribían libros o capítulos de libros en francés. Ahora, no solo tienen que dejar de escribir libros, sino que tienen que empezar a escribir artículos. La estandarización hacia la que todos se dirigen es el modelo de las disciplinas STEM. Escribimos en inglés, en revistas internacionales, y eso se vuelve un criterio de excelencia. Claro, esas disciplinas de por sí suelen tener más prestigio. No hay Premio Nobel en sociología o en historia. Entonces esas disciplinas científicas se consideran más prestigiosas. Los rankings y las métricas están hechos a su medida. Y todas las disciplinas están yendo lentamente en esa dirección. Los investigadores no cambian fácilmente su comportamiento, por lo que la forma en que los jóvenes científicos son entrenados es la forma en la que trabajarán el resto de su carrera. Las nuevas generaciones de científicos sociales se están comportando de manera diferente a las anteriores. Tenemos datos de cohortes donde vemos que quienes tenían, digamos, 30 años en la década de los ‘80 publicaban libros en francés. Quienes tienen 30 años en la década del 2020 están más que nada publicando artículos. Los temas que se pueden estudiar en un caso y otro son diferentes

¿Ese mismo efecto de uniformización se da a través de las lenguas?

Las lenguas no son neutrales, y al converger en una única lengua y un único modelo de publicación perdemos más de lo que ganamos. Escribir un artículo en inglés no es lo mismo que escribir un artículo en castellano o francés. No organizas tus pensamientos de la misma forma. Más allá del tema, la manera de abordarlo se verá afectada. Especialmente en ciencias sociales y humanidades, un artículo en inglés puede ser aceptado en una revista estadounidense, pero dado que a la revista estadounidense no le interesa ni Quebec ni América Latina, entonces no tendrá público, no será leído por esa gente. En vez de escribir un artículo para nuestra gente, estaremos escribiendo un artículo para ningún lector. Aquí, en una universidad francófona, publicar en francés significa que esos artículos no serán tenidos en cuenta. Serán dejados de lado, pero los artículos en inglés sí contarán. Lo mismo ocurre en América Latina.

Usted es titular de la Cátedra UNESCO sobre la ciencia abierta. Además de enfrentar la privatización del acceso a las publicaciones académicas, la ciencia abierta busca abrir los datos, la evaluación, y el proceso integral de investigación científica. ¿Podría contarnos más acerca de estas propuestas?

La ciencia abierta abarca muchos aspectos, pero surge del hecho que, históricamente, la ciencia ha sido una actividad muy exclusiva. La gente no solía tener acceso directo a los artículos. Solo las bibliotecas podían acceder a las revistas. Los datos habitualmente son privados. Los investigadores por lo general no acceden a los datos de sus colegas, es algo que se controla y a lo cual se aferran. Quienes están habilitados a hacer ciencia son quienes tienen títulos de doctorado. Es una actividad relativamente elitista. La meta es hacerla menos elitista de lo que es, abriendo la ciencia tanto para los científicos como para el resto de la sociedad. Lo que está más al alcance cuando se trata de la ciencia abierta es el acceso abierto. Aunque hemos hablado del control corporativo en el acceso abierto, creo que podemos encontrar un sendero de acción claro. Además, existe cierta uniformidad entre disciplinas. La cuestión de los datos abiertos es más difícil. Cuando empecé a estudiar ciencias sociales al final de los ‘90 o principios de los 2000, lo que se nos decía que hiciéramos —y todavía es así en muchos campos— era destruir nuestros datos, porque había que preservar el anonimato. Tienes tus encuestados, tus respuestas, y el anonimato de esa gente debe ser preservado a toda costa. Entonces, una vez que realices tus análisis, conservas una muestra de las encuestas, pero destruyes los datos para asegurarte que nadie los obtenga. También tenemos la cuestión de información sensible en los campos de la salud. En las ciencias naturales, claro, donde tenemos datos sobre ecosistemas o la resistencia de un puente al viento o al clima, o cosas así, el anonimato no es tanto problema porque los datos no están asociados a personas. Refieren a cosas, a la naturaleza, a animales. Por eso, encontrar un método estándar de compartir datos es más complejo. Otro factor es, por supuesto, la competitividad inherente al campo científico. Compartir datos que a uno le llevó años recolectar, habiendo escrito solo un artículo, podría ser… “hey, necesito publicar algo más basado en esto, todavía no terminé mi análisis”. Podemos enojarnos con alguien que dijera eso, pero todos los incentivos en el sistema empujan hacia esas conductas. La gente no tiene buenas o malas intenciones de por sí: reaccionan a su entorno. El otro ángulo interesante son las evaluaciones abiertas. La evaluación por pares es un proceso bastante hermético. Los dictámenes de evaluación no suelen estar disponibles. Más y más revistas están brindando a sus lectores acceso a las evaluaciones de los artículos, lo que me parece excelente porque ningún artículo es perfecto. Para el lector, creo que es muy importante poder ver lo que otros han dicho sobre determinado trabajo de investigación. De nuevo, la evaluación por pares es un método relativamente bueno para filtrar artículos, teniendo en cuenta que la mayoría terminan siendo publicados en una revista con criterios de evaluación menos estrictos. Pero asegurando que el contenido de esas evaluaciones esté disponible junto con el artículo.

¿Qué piensa de revelar las identidades de quienes participan en el proceso de evaluación?

Soy menos optimista sobre la eliminación del anonimato. Históricamente, los evaluadores han sido anónimos. Los autores no lo son tanto en el proceso de evaluación. Gran parte de las revistas usan el sistema de simple ciego en vez del doble ciego. La cuestión con eliminar el anonimato de los evaluadores es que, en primer lugar, la gente puede negarse. Si le pides a alguien que evalúe un artículo aclarando que tendrá que hacerlo de forma no anónima, dirá “no, gracias” porque no querrá enfrentarse con un colega, y porque sabrán que les tomará más tiempo, dado que su nombre será asociado a ese dictamen. La otra cuestión es el temor a las represalias si evalúas un artículo de alguien más experimentado, o de alguien que podría reaccionar de mala manera, incluso como colegas. Este punto no es fácil de resolver. En general, me inclino por mantener el anonimato, pero publicar el contenido de las evaluaciones. Entiendo que no es perfecto, pero si vamos a repensar la manera en que los artículos son evaluados, tenemos que repensar nuestras prácticas de publicación.

¿A qué se refiere con “repensar nuestras prácticas de publicación”?

Actualmente, podría argumentar que estamos publicando demasiado. Y yo soy culpable, creo que todos somos culpables de eso. Creo que tenemos que avanzar hacia un sistema donde necesitemos menos revistas. Probablemente necesitemos menos publicaciones. El campo científico pasó de publicar menos de un millón de artículos por año en el 2000 a publicar alrededor de dos millones de artículos anuales quince años atrás, y hoy se publican alrededor de ocho millones de artículos por año. El crecimiento en las publicaciones científicas ha sido enorme. Durante los últimos tres años ha estado creciendo a menor ritmo, pero el periodo 2015-2020 fue de un crecimiento descomunal en la producción científica total, que no es coherente con el ritmo de descubrimientos científicos. Venimos publicando principalmente estudios incrementales. Por supuesto que hay algunas cosas revolucionarias realmente buenas, pero también hay muchos artículos que existen no porque los lectores los necesiten, sino porque los autores los necesitaban. “Necesito publicar un artículo este año. Necesito un artículo para mi tesis. Necesito un artículo para presentarme a un subsidio”. Todos tenemos parte de la culpa, pero el primer paso es reconocerlo y tratar de resolver este problema, que no es fácil.

¿Cuál es la situación del uso de inteligencia artificial (IA) en la práctica científica, y el uso de documentos en acceso abierto para el entrenamiento de modelos de IA? ¿Debería la IA ser regulada, en situaciones donde no se atribuye crédito ni se reconoce autoría?

Es una situación compleja. Empezaré por decir que esas herramientas definitivamente pueden ser útiles. Claro que tenemos que encontrar la forma de usarlas apropiadamente. La cuestión de la atribución es crucial porque en un mundo donde la autoría no fuera lo que determina las carreras de las personas, todos podrían usar estas herramientas para estudiar todo lo posible, y no tendríamos que preocuparnos por quién descubrió qué; simplemente lo tendríamos. Hay muchas preocupaciones éticas que no abordaré ahora, pero la cuestión de la mala atribución de un descubrimiento es crucial. La prioridad. ¿Quién debería ganar el Premio Nobel por algo que se descubra a través de la IA? ¿La persona que escribió el prompt para que la IA descubra la cosa, o la persona que desarrolló el algoritmo? Fijate quienes ganaron el Premio Nobel en Química el año pasado. Es un algoritmo. Quienes desarrollaron el algoritmo se dedican a la computación, pero luego es aplicado a la química para comprender fenómenos químicos. El punto clave en que la mayoría de los investigadores acuerdan es en la transparencia. Debemos ser transparentes en el modo en que la usamos en nuestro trabajo, describir cómo usaste esto para llevar a cabo tu investigación. No mucha gente lo hace pese al hecho que sabemos que la mayoría de la gente la está usando para escribir código, para traducir o hacer resúmenes, las cuales considero maneras éticas de hacer las cosas. Pero debemos explicitarlo. Estas cosas deben ser citables, de la misma manera que citamos los programas que hemos usado. La otra cuestión es el uso de artículos científicos para entrenar estas IAs. Estamos en un sistema donde, desafortunadamente, muchos de los artículos que circulan tienen algún contenido generado por IA que a su vez se reutiliza para entrenar esa IA. Entonces hay un aspecto totalmente circular con el cual tenemos que tener mucho, mucho cuidado. Si vamos a entrenar inteligencias artificiales, tiene que ser en base a contenido que las preceda. La regulación es compleja porque la ciencia se basa en la confianza y la transparencia. Necesitamos poder confiar en los científicos. Para que sean transparentes sobre su uso de IA, no tiene que haber estigmas asociados a ese uso, y para eso tenemos que proponer maneras apropiadas de usarla, para poder decir “bueno, esta persona la usó de tal manera y es aceptado”. Deberíamos trabajar sobre eso porque de otra forma, la gente la usará por lo bajo y eso no mejorará nada. La IA ya se está empleando, y no es algo que vaya a irse pronto. Sabemos que circula mucho contenido generado por IA, parte del cual se publica en revistas de baja calidad. Yo formo parte de un comité federal que supervisa el fraude científico en este país. Pero la mayoría de los miembros de este comité no estaban al tanto del uso de IA en la ciencia y de lo que se puede hacer. Entonces les di una pequeña demostración. Le pedí a ChatGPT que me diera los diez últimos artículos publicados sobre un tema, que hiciera un resumen, que hiciera una revisión de literatura basada en esos diez textos, que redactara tres preguntas de investigación, y que generara gráficos. En cinco minutos tuve un artículo “original”. Creo que no todos en la comunidad académica comprenden lo fácil que es. Estamos en una situación donde artículos generados por IA son evaluados a través de IA y son de hecho publicados por los incentivos a la publicación. Si hay algo sobre lo que podemos actuar, son esos incentivos. Tratar de cambiar las metas, tratar de cambiar lo que motiva a los investigadores, las razones por las que van a la oficina cada mañana. Seguro que la mayoría ama lo que hace y se preocupa por la ciencia, pero probablemente se preocupan demasiado por publicar, mucho más de lo que deberían. Sí, la publicación científica es importante, pero en realidad deberían estar pensando sobre su ciencia y trabajando en ella, mientras que nosotros como expertos en comunicaciones académicas deberíamos asegurarnos de darles las herramientas necesarias mientras nos encargamos de la difusión. Es un punto de vista diferente del que solía tener. Yo solía pensar que teníamos que capacitar a los científicos sobre esto. No, no les interesa, no tienen tiempo. Deberían estar comunicando sus investigaciones y punto. De lo que tenemos que asegurarnos es que el sistema sea justo. Necesitamos su apoyo, pero no deberíamos apuntar a convertir a todos los científicos en expertos en comunicaciones académicas. Así no es como saldremos de esta situación.

Las tensiones geopolíticas y tecnocientíficas internacionales están reconfigurando rápidamente muchos de estos debates. ¿Qué cambios prevé en relación a los temas que hemos discutido? ¿Qué estrategias pueden desplegarse en pos de una mayor democratización de las agendas de investigación públicas?

El orden internacional está en efecto cambiando, entonces, ¿qué podemos hacer? En la crisis en la que estamos, tenemos que hacer buena ciencia, aunque no termine siendo publicada. Durante la pandemia, las mejores investigaciones no necesariamente fueron publicadas en revistas porque era una emergencia, lo publicamos como preprints, porque era información crucial que necesitábamos inmediatamente. Nos comunicamos para resolver problemas a partir de la necesidad. Y a partir de la necesidad, tal vez nos demos cuenta que todos estos juegos de rankings son inútiles. Objetivamente son inútiles. No están mejorando las cosas. Los rankings universitarios no mejoran a las universidades. El mayor ejemplo es Arabia Saudita, donde están comprando autorías para escalar su posicionamiento. Pero las universidades no necesariamente están mejorando. No están aumentando las capacidades de investigación en su país. Una crisis así podría finalmente quitar el foco de las formas y centrarnos más en el contenido. Estoy tratando de ser optimista, porque las cosas están cambiando ahora mismo, mientras hablamos. Las universidades en los Estados Unidos están siendo desfinanciadas. El mundo de la posguerra fue forjado por la dominación de los Estados Unidos, especialmente a partir de 1989. Lo que vemos ahora es que ya no podemos depender de ese país. Si no podemos contar con la ayuda del jugador históricamente dominante para encontrar soluciones, necesitamos encontrarlas nosotros mismos. El ejemplo que di antes de un mecanismo de control internacional, descentralizado, donde cada país tenga una copia de todos los archivos científicos probablemente sea el mejor sistema. Hay una oportunidad para que los países vuelvan a desarrollar capacidades nacionales de difusión; para, de algún modo, retroceder a mediados de la década de 1990 cuando tercerizamos todas nuestras comunicaciones a empresas con fines de lucro. Decir “necesitamos ciencia para los canadienses, América Latina necesita ciencia para los latinoamericanos”. No se trata de cerrarnos sobre nosotros mismos, pero al menos tener control sobre nuestros medios de comunicación académica y asegurarnos de que podamos realmente leer y contribuir a la ciencia que nos compete. Para esto necesitamos alineamientos internacionales. Y como mencioné, hay organizaciones más que dispuestas a trabajar en ello. Creo que el punto en definitiva es que tenemos que tomar esta situación como una oportunidad para reorganizarnos.

Material suplementario
Notas
Notas
1 Larivière, V., Haustein, S., y Mongeon, P. (2015). The Oligopoly of Academic Publishers in the Digital Era. PLOS ONE, 10(6), e0127502. https://doi.org/10.1371/journal.pone.0127502; Shu, F., y Larivière, V. (2024). The oligopoly of open access publishing. Scientometrics, 129(1), 519–536. https://doi.org/10.1007/s11192-023-04876-2. Ver también: Cátedra Libre Ciencia, Política y Sociedad. (2018). Publicaciones científicas: ¿Comunicación o negocio editorial? Ciencia, Tecnología y Política, 1(1), 005. https://doi.org/10.24215/26183188e005; Red PLACTS (2022). Propuestas para una política soberana en materia de publicaciones científicas. Ciencia, Tecnología y Política, 5(9), 086. https://doi.org/10.24215/26183188e086
2 Habitualmente denominadas APCs, por las siglas en inglés de Article Processing Charges.
3 Los acuerdos transformativos se dan entre instituciones académicas y editoriales científicas, mediante los cuales las instituciones pagan por el acceso a las revistas de una editorial y, en la misma licencia, se incluyen las tasas de procesamiento de artículos que cada autor pagaría individualmente por la publicación en acceso abierto.
4 Social Science Research Network (SSRN) es una plataforma de acceso abierto que funciona como repositorio para compartir resultados tempranos de investigación. No se trata de una revista, más bien de una biblioteca electrónica y motor de búsqueda. Elsevier la compró en 2016. https://www.ssrn.com/index.cfm/en/
5 Web of Science es una plataforma de pago que brinda acceso a diversas bases de datos de referencias y citas en revistas académicas, memorias de conferencias, y otros documentos académicos. Es propiedad de Clarivate, una compañía británica-estadounidense. Dimensions es una base de datos de resúmenes, referencias y proyectos de investigación, los cuales son vinculados con las publicaciones, ensayos clínicos y patentes que de ellos se deriven. Dimensions es parte de Digital Science & Research Solutions Ltd, empresa radicada en Londres.
6 PubMed es una base de datos gratuita y abierta que reúne principalmente la lista de referencias y resúmenes de MEDLINE sobre ciencias biológicas y biomédicas. Es mantenida por la Biblioteca Nacional de Medicina de los Estados Unidos (United States National Library of Medicine) de los Institutos Nacionales de la Salud.
7 Érudit es una plataforma de publicación sin fines de lucro basada en la provincia de Quebec. Fundada en 1998, es el catálogo más grande de publicaciones científicas canadienses en ciencias sociales y humanidades (incluyendo algunas publicaciones en ciencias naturales), tanto en francés como bilingües. SciELO es una base de datos bibliográfica, una biblioteca digital, y un modelo de publicación cooperativa de revistas en acceso abierto. Creada en Brasil en 1997, hoy hay 16 países en la red SciELO. Redalyc es una base de datos bibliográfica y una biblioteca digital de revistas en acceso abierto, sostenida por la Universidad Autónoma del Estado de México con el apoyo de numerosas otras instituciones de educación superior y sistemas de información. El proyecto inició en 2002 con el objetivo general de construir un sistema de información científica compuesto de las principales revistas editadas en América Latina. Latindex es un sistema de información bibliográfica de consulta gratuita. Establecido como red en 1997, el proyecto se basa en la cooperación de 17 nodos nacionales que operan de forma coordinada para la recolección y difusión de datos sobre publicaciones iberoamericanas.
8 Cancino, R., Albis Salas, N., Villarroel Valenzuela, J., Robles-Belmont, E., Oliveira, T., Ràfols, I., Palacios-Núñez, G., Ortiz Núñez, R., Flores Vargas, X., Restrepo Fernández, M. C., Levin, L., Mascarenhas e Silva, F., Barata, G., Vélez-Cuartas, G., Uribe-Tirado, A., Lucio-Arias, D., y Mugnaini, R. (2024). Manifiesto por las métricas socioterritoriales de ciencia, tecnología e innovación elaborado en Latmetricas: Temuco, Chile. 15 de noviembre de 2023. Ciencia, Público y Sociedad, 1(2), 63-66. https://revistas.unc.edu.ar/index.php/cps/article/view/47504
9 Cátedra Libre Ciencia, Política y Sociedad. (2019). La evaluación en ciencia y tecnología en Argentina: Estado de situación y propuestas. Ciencia, Tecnología y Política, 2(3), 025. https://doi.org/10.24215/26183188e025
10 Ciencia, Tecnología, Ingeniería y Matemáticas, por sus siglas en inglés.



Foto: gentileza Vincent Larivière



Foto: gentileza Vincent Larivière
Buscar:
Contexto
Descargar
Todas
Imágenes
Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
Visor móvil generado a partir de XML-JATS4R