Artículos Producto de Investigación
Recepción: 01 julio 2025
Revisado: 01 agosto 2025
Aprobación: 01 septiembre 2025

Resumen: Introducción: Esta investigación examina los desafíos éticos y estructurales que condicionan los procesos contemporáneos de gestión del conocimiento en el ámbito académico. Se plantea que la presión institucional por resultados cuantificables altera la dinámica de producción científica y genera distorsiones en las prácticas de integridad académica. Metodología: Se empleó un enfoque cualitativo basado en análisis crítico de incidentes documentados, contrastes entre marcos regulatorios y prácticas reales, y evaluación comparada de mecanismos institucionales de control, incluyendo métricas de desempeño, procedimientos editoriales y estructuras de reconocimiento académico. Resultados: Los hallazgos muestran que los sistemas actuales incentivan la simulación de productividad, la fragmentación innecesaria de resultados, la sobreautoría estratégica y dinámicas de subordinación académica que afectan la calidad y legitimidad del conocimiento producido. Asimismo, se identifica la influencia creciente de actores privados en la estandarización de parámetros de evaluación, lo que agrava tensiones entre ética, gestión institucional y autonomía académica. Los resultados evidencian la necesidad de replantear los modelos de gestión académica bajo criterios de transparencia, responsabilidad y sostenibilidad cognitiva.
Palabras clave: ética académica, gestión del conocimiento, evaluación científica, integridad académica, estructuras de gestión.
Abstract: Introduction: This research analyzes the ethical and structural challenges shaping contemporary knowledge management processes within academia. It argues that institutional pressure for quantifiable outputs reshapes scientific production and generates distortions in academic integrity practices. Methodology: A qualitative approach was applied, integrating critical analysis of documented incidents, contrasts between regulatory frameworks and actual practices, and comparative assessment of institutional control mechanisms, including performance metrics, editorial procedures, and recognition structures. Results: Findings indicate that current systems incentivize simulated productivity, unnecessary fragmentation of results, strategic co-authorship, and hierarchical academic dependence, all of which compromise the quality and legitimacy of scientific knowledge. The growing influence of private corporations in the standardization of evaluation criteria further intensifies tensions between ethics, management structures, and academic autonomy. The study concludes that rethinking academic management models is essential to promote transparency, responsibility, and cognitively sustainable scientific work.
Keywords: academic ethics, knowledge management, scientific evaluation, academic integrity, management structures.
Introducción
Provenientes de dos tradiciones teóricas distintas —la filosofía de la ciencia y la sociología crítica—, las obras La estructura de las revoluciones científicas (Thomas Kuhn, 1962) y El oficio del científico (Pierre Bourdieu, 2001) comparten una visión no positivista del desarrollo científico y contextualizan la ciencia dentro de dinámicas sociales, históricas y culturales. Cada una, desde su propio enfoque, muestra pormenores de cómo se construye el conocimiento científico y revela que ese proceso, lejos de sustentarse en una praxis infalible regida por un principio de objetividad total, en no pocas ocasiones adolece de contradicciones y problemas, como cualquier otra práctica humana. El primer objetivo de este trabajo consiste en analizar los procesos de generación y validación del conocimiento académico en las ciencias y humanidades actuales. Con esta base, se plantea un segundo objetivo: enlistar y examinar algunas prácticas poco éticas en la escritura académica2, problematizando su impacto en la legitimidad y el valor del conocimiento producido.
Si bien las prácticas no éticas en la escritura académica son producto de acciones individuales, en ocasiones se desarrollan en contextos donde la evaluación de los investigadores parece haberse desvirtuado y responde tanto a lógicas comerciales como a otras relacionadas con el desarrollo personal, más que con la generación de conocimiento. Por esta razón, al realizar el análisis de los métodos de evaluación académica —entendidos desde su lógica interna— se pretende comprenderlos como eslabones y herramientas de un ecosistema más amplio al que sirven. Con la intención de ilustrar los planteamientos de este artículo, se revisarán algunos casos contextuales que muestran de manera concreta formas de simulación y disfunción que han acontecido en entornos académicos y de generación de conocimiento.
Asumo como propia una pregunta que planteó Pierre Bourdieu al hablar sobre los mecanismos sociales que se emplean para validar el conocimiento científico: “¿puede contribuir la ciencia social a resolver un problema que ella misma provoca […]?” (2001, p. 11 y 12). Estoy convencido de que sí puede hacerlo y, por ello, este trabajo es clasificado y aceptado como un artículo científico. Los argumentos aquí expuestos parten de una postura moral personal, pero no constituyen sólo un posicionamiento individual: se sustentan en lineamientos, declaraciones y posturas éticas institucionales sobre la generación del conocimiento; a lo largo de este artículo se hará referencia a ellas.
Precisamente en apego a un ejercicio ético de escritura y conforme a la “Declaración de Heredia. Principios sobre el uso de inteligencia artificial en la edición académica”3 —de la cual soy investigador firmante— quiero mencionar que para la redacción e investigación de este artículo me apoyé en la herramienta de inteligencia artificial (IA) generativa, ChatGPT, en su versión Plus. El uso de esta herramienta ocurrió entre los meses de diciembre de 2024 a julio de 2025. Considero que el uso crítico y transparente de estas tecnologías puede ser compatible con los principios de honestidad intelectual, siempre que se reconozca su papel en la producción de conocimiento. Más allá de facilitar tareas mecánicas de redacción o revisión, la IA fue utilizada como una herramienta de diálogo, exploración conceptual y organización de ideas. Toda la información expresada en este texto fue validada y verificada por mi persona antes de su envío a dictaminación. Mencionar esta colaboración con una IA forma parte de mi compromiso ético con la apertura y la responsabilidad en el uso de tecnologías emergentes dentro del ámbito académico.
Los métodos de evaluación científica
Al constituir un ejercicio meta académico, es necesario hacer explícitas algunas consideraciones en las que deseo enmarcar este artículo. La primera de ellas es que mi trabajo no desdeña la producción académica per se; por el contrario, intenta ser un ejercicio crítico que incite a la reflexión y contribuya a cumplir con el propósito de generar conocimiento. Es cierto que la escritura científica y la humanística entrañan diferencias importantes, pero en ambas debería de imperar un ideal ético en el que la generación de conocimiento y la transformación social4 fueran el objetivo principal.
Antes de abordar las diversas tensiones éticas presentes en la escritura académica y en la publicación de resultados, quisiera reflexionar sobre de sus métodos de evaluación, puesto que en ellos pueden advertirse situaciones que podrían constituir el germen de algunos de los problemas éticos que analizaré más adelante.
Los mecanismos utilizados para validar los avances, descubrimientos y aportaciones de la ciencia y las humanidades han sido diversos a lo largo del tiempo y han respondido a contextos históricos, institucionales y tecnológicos particulares. Desde la revisión por pares hasta la indexación en bases de datos internacionales, estos métodos han buscado ofrecer garantía de calidad y rigor en las investigaciones. Sin embargo, en su implementación también han dado lugar al quehacer académico.
Es difícil rastrear con precisión cuándo y cómo inició el proceso de revisión por pares en la práctica de la edición científica. David Kronick (1990) lo ubica en el siglo XVIII, aunque reconoce que desde el siglo XVII existían prácticas similares en revistas de la Royal Society de Londres. Independientemente de sus orígenes, la revisión por pares es probablemente el mecanismo por excelencia en el que la academia ha depositado su confianza para evaluar la producción de conocimiento. En términos generales, la revisión por pares puede definirse y entenderse del siguiente modo:
La revisión por pares es una herramienta usada en la valoración crítica de los manuscritos enviados a las revistas por parte de los expertos, que no forman parte del personal editorial, con el fin de medir su calidad, factibilidad y rigurosidad científica. Hace parte de la valoración crítica, independiente, no prejuiciada de todo trabajo académico, incluyendo el proceso científico. Por tanto, puede considerarse como una extensión importante del mismo. […] la revisión por pares ayuda a los editores a decidir cuáles manuscritos pueden ser convenientes para sus revistas, y a su vez respalda a los autores y editores en sus esfuerzos por mejorar la calidad de la comunicación. Una revista que realiza o es sometida al proceso de revisión por pares envía la mayoría de sus artículos de investigación a revisión externa. […] Sin embargo, para demostrar la transparencia del proceso, cada revista debe revelar públicamente sus políticas en las instrucciones para los autores.” (Ladrón de Guevara Cervera et al., 2008, p. 260-261)
Aunque la práctica de la revisión por pares se ha extendido a todas las áreas del quehacer académico —incluidas las ciencias “duras”, las sociales y las humanidades—, es quizá en el ámbito científico donde tiene su principal arraigo. ¿Acaso no son los científicos (o especialistas de una disciplina en particular) quienes detentan la autoridad epistémica para dotar de validez a los contenidos de las publicaciones académicas? Aquí puede entreverse una de las paradojas de la generación del conocimiento: los académicos son jueces y parte en sus propios procesos de creación y validación de hallazgos. ¿Podría esto ser de otro modo? Difícilmente, pues las expertas y los expertos de las diferentes áreas del saber son quienes están más capacitados para sancionar el progreso en campos especializados. Idealmente, no tendría que imperar ninguna condición más que la de generar conocimiento; sin embargo, existen numerosos aspectos humanos que podrían impedir que este objetivo se cumpliera. Además, si se quisiera delegar esta responsabilidad en otras figuras, como los editores, ello sería complicado: es poco frecuente que un editor esté actualizado simultáneamente en los horizontes disciplinares y en las labores de edición. Esto es aún más notorio en disciplinas cuya complejidad escapa al sentido común y requiere aprendizajes especializados o una actualización constante.
Pese al reconocimiento de la utilidad de la revisión por pares, existen tensiones potenciales que no deberían minimizarse. Si bien esta práctica garantiza un control técnico y metodológico dentro de una comunidad de expertos y expertas, también puede generar fenómenos como la endogamia disciplinaria, los sesgos ideológicos o resistencias a la inclusión de nuevos enfoques o de voces periféricas o disidentes. Además, con el incremento de la producción científica y el reconocimiento del factor de impacto y de la medición cuantitativa de la citación, se corre el riesgo de errores en la evaluación. Este aumento exponencial no solo ha saturado el sistema de revisión por pares —que en 2020 consumió más de 100 millones de horas de trabajo gratuito en revisión científica (Sample, 13 de julio de 2025), sino que también ha favorecido la lógica de la cantidad por encima de la calidad. En consecuencia, la posibilidad de sesgos, omisiones metodológicas y dificultades para incorporar miradas periféricas es mayor.
Es difícil hablar de casos en los que esté probado que la evaluación por pares no es infalible, puesto que, al descubrirse ejemplos de malas prácticas científicas, generalmente se argumenta a favor de este tipo de revisiones. Por ejemplo, el conocido caso del artículo “Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity” de Alan Sokal, que publicara Social Text en 1996,5 suele referirse a este caso para mostrar, de manera errónea, los problemas de la revisión por pares. Claro que representa un ejemplo paradigmático que pone en evidencia las limitaciones de la validación del conocimiento científico, toda vez que, intencionadamente, Sokal plagó su propuesta de afirmaciones sin sentido y argumentos pseudofilosóficos encubiertos en el estilo habitual de la jerga académica. Sin embargo, como los editores de Social Text comentaron posteriormente, la revista no aplicó un proceso de revisión por pares anónima y externa, sino que simplemente realizó una evaluación interna por parte del comité editorial (Robbins y Ross, 2000, pp. 54–55). Esto, paradójicamente, muestra la importancia de someter a revisión externa un contenido académico y no dejarlo solo a la validación de un criterio editorial o formal
Otro famoso caso que evidencia fallas en el sistema de evaluación científica es el ocurrido con el físico alemán Jan Hendrik Schön, de quien se supo, a inicios del siglo XXI, que había falseado información en al menos 16 publicaciones distintas producto de su investigación sobre semiconductores. A diferencia del caso Sokal, Schön no tenía la intención de demostrar la falibilidad de los procesos de investigación científica, sino sacar provecho de ellos. Cometió acciones faltas de ética al utilizar información incorrecta, fabricar datos y reutilizar los mismos fragmentos de texto en distintos artículos académicos sobre semiconductores.
¿Cuál pudo haber sido la motivación de Jan Hendrik Schön al falsear la información? No es claro toda vez que él nunca asumió completa responsabilidad de sus acciones. Sus respuestas atribuían la falsedad de la información a errores y malas prácticas de manejo de datos, pero no a una actuación deliberada (Goss Levi, 2002). Sin embargo, al ser tan frecuentes y notorios los errores, y al no poder presentar evidencia de sus actividades, como notas de laboratorios o cuadernos de trabajo (principios básicos para la replicabilidad científica), la comisión que investigó su caso determinó que había obrado con conocimiento de causa (Goss Levi, 2002). Puede inferirse que su deseo de reconocimiento —que se traducía en distinciones y en más financiamiento para investigaciones— es el principal aliciente para que Schön haya actuado como lo hizo. Quizá también pensó que no habría manera de que se detectaran los errores en su trabajo, pero lamentablemente para él eso no fue así.
Tras ser considerado una referencia emergente en la materia —puesto que su obra estaba publicada en revistas de prestigio como Science y Nature—, Jan Hendrik Schön perdió su empleo, sus artículos fueron retractados y la institución donde realizó sus estudios de doctorado decidió retirarle su título en física en 2004. Con el caso Schön quedó de manifiesto la necesidad de fortalecer los mecanismos de revisión y replicación en la investigación científica. Aunque los artículos en los que se detectó su comportamiento no ético pasaron por un proceso de revisión por pares, este no pudo determinar a tiempo que existían deficiencias. La pregunta que debemos plantearnos es si alguna parte de la culpa debe recaer en los evaluadores, quienes no supieron notar las inconsistencias en la información o no tuvieron la manera de verificar la validez de esos trabajos. Independientemente de la responsabilidad de evaluadores y editores, el problema no tendría que haber ocurrido si el autor no se hubiera comportado de manera no ética. Casos como el de Schön muestran que este tipo de comportamientos podría estar relacionado con la obtención de reconocimiento o incentivos concretos. Estos ejemplos son, a final de cuentas, casos de corrupción académica que desacreditan el sistema de evaluación, en este caso de la ciencia. Por lo anterior, conviene explorar cómo se configuran actualmente los sistemas de evaluación académica, para analizar si en ellos existe el germen que incite o facilite el comportamiento no ético de las y los autores.
Lógicas científicas competitivas
Es frecuente que los procesos de evaluación académica adopten lógicas cuantitativas basadas en métricas como el número de citas, el índice h,6 El factor de impacto de las revistas o la presencia en bases de datos reconocidas internacionalmente. Si bien el reconocimiento de estos aspectos estadísticos tiene la intención de ofrecer criterios objetivos para valorar la producción científica, su consideración exclusiva o preponderante quizá haya propiciado una forma de competencia que tensiona los valores éticos de la investigación. Bajo esta lógica que privilegia los números, publicar deja de ser prioritariamente un medio para compartir hallazgos relevantes y se convierte, en muchos casos, en una simple estrategia para acumular indicadores.
En México, por ejemplo, el Sistema Nacional de Investigadoras e Investigadores (SNII) constituye un claro ejemplo institucional de cómo las métricas se han incorporado a los procesos de evaluación académica. El SNII tiene como propósito reconocer a la comunidad académica que contribuye a la generación de conocimiento y genera impacto social. Para ello establece una jerarquía de cuatro niveles: candidato, nivel 1, nivel 2 y nivel 3. La asignación de estos niveles se lleva a cabo mediante procesos de evaluación anuales que miden la productividad científica en términos cuantitativos y cualitativos con distintas variables. La distinción, además, otorga un beneficio económico —diferenciado por niveles— a personas que, adicionalmente a haber pasado el proceso de evaluación, laboren realizando actividades docentes o de investigación en instituciones públicas.
Si bien la evaluación para ingresar al SNII en México pondera también aspectos cualitativos y es realizada por especialistas en distintas áreas del conocimiento,7 valora positivamente la demostración cuantitativa de resultados, quizá el factor que más influye en el reconocimiento de la labor científica o de investigación de una persona. Esto no es exclusivo de México, pues a nivel global —al menos en los países de Occidente— se ha consolidado un modelo de evaluación académica que privilegia la acumulación de indicadores medibles, como el número de publicaciones indexadas en sistemas internacionales, el factor de impacto o las citas recibidas.
Este énfasis en los indicadores cuantificables no surge en un vacío, sino que está estrechamente vinculado con la consolidación de un ecosistema global de evaluación científica articulado por plataformas de indexación y bases de datos comerciales. En las últimas décadas, empresas privadas como Elsevier (a través de Scopus), Clarivate Analytics (a través de Web of Science y el Journal Citation Report) y, en menor medida, Google (con Google Scholar) han adquirido un papel central en la medición del impacto académico. Sus sistemas no solo clasifican revistas y autores con base en métricas como el factor de impacto, el índice h o las citas recibidas; también, debido a su prestigio y reconocimiento institucional, influyen de manera indirecta en qué se investiga, dónde se publica, en qué idioma aparece la producción académica y a quién se reconoce. Así, el rumbo de la ciencia y sus prioridades no están dictados únicamente por una comunidad académica, sino que responden a lógicas de mercado y de visibilidad digital determinadas por estos intermediarios globales.
El tema de cómo la evaluación científica global está muy condicionada a la información que proviene de estas empresas es siempre complicado. Tal y como advierten Alejandra Hurtado y Julián Pacheco:
[…] la participación de los investigadores a través de artículos, ponencias, patentes o libros de investigación en bases de datos de indización como ISI, Scopus, SciELo y Publindex es asumida como un sistema efectivo para determinar la producción investigativa de las instituciones académicas. No en vano, la medición del impacto citacional que pueda tener un autor perteneciente a una institución educativa incide notoriamente en aspectos tales como la acreditación institucional o el ranking de una universidad a nivel mundial. Sin embargo, cuando se analiza el funcionamiento de estos sistemas de indización es evidente el privilegio otorgado a las universidades de países desarrollados con respecto a las universidades de los países “subordinados” (2014, pp.73).
Como se explica en la cita anterior, las implicaciones van más allá de la evaluación científica: inciden tanto en el curso de las agendas de investigación como en la asignación de valor a ciertas revistas, editoriales, instituciones e incluso idiomas. No se trata de restringir la participación de la iniciativa privada en la generación de conocimiento, sino de advertir que hemos delegado gran parte de la responsabilidad de evaluar el progreso de las ciencias y las humanidades en corporaciones. Debemos ser plenamente conscientes de que estas empresas no actúan bajo una lógica filantrópica ni orientada al fortalecimiento del conocimiento como bien común, sino que responden a intereses comerciales. Sobre todo, debemos tener claro que, en la medida en que continuemos otorgando creciente importancia a estos referentes comerciales, será cada vez más difícil reconducir la generación de conocimiento hacia el cambio o la transformación social.
Para los académicos e investigadores que desean publicar su trabajo, la legitimidad otorgada por una revista o editorial se convierte en una forma de capital simbólico —un crédito o credencial— que pueden utilizar para sus propios fines. Pueden añadirlo a su CV y utilizarlo para su propia carrera, ya sea solicitando becas de investigación, buscando un ascenso o persiguiendo algún otro objetivo que impulse su trayectoria. De hecho, el tipo de reconocimiento que obtienen por su trabajo, tanto en términos de legitimidad otorgada por la revista o editorial, y en términos de otras formas de reconocimiento por pares, como revisiones y premios, es para muchos académicos e investigadores el beneficio más importante de la publicación, superando con creces cualquier retorno financiero directo. El sello distintivo de una revista o editorial también beneficia a los usuarios finales, ya que funciona como un filtro para guiar sus propias investigaciones y actividades académicas. […] La publicación de investigaciones nunca es sólo una cuestión de difundir resultados: es una parte intrínseca de una economía cultural de la investigación, un sistema complejo de recompensas simbólicas y económicas que configura las oportunidades de vida de los individuos que desean seguir sus carreras en el mundo académico y de la investigación científica y académica. (Thompson, 2005, p. 83)8
Al concentrar el control de herramientas clave para la evaluación científica —como índices, rankings y sistemas de citación— se posibilita intervenir de forma estructural en las políticas de investigación de universidades, centros científicos e incluso gobiernos. La inclusión o exclusión de autores y temas en sus bases de datos se convierte en un criterio de validez académica, y sus métricas, muchas veces opacas y de difícil replicabilidad, terminan por normar prácticas institucionales, decisiones de financiamiento y trayectorias individuales. Así, lo que se investiga, dónde se publica y qué se considera valioso se alinea con estándares diseñados por agentes privados, con frecuencia ajenos a las realidades locales, a las lenguas distintas del inglés o a las necesidades de investigación de los países del Sur global. Esta privatización de la validación científica no solo genera dependencia epistémica, sino que convierte a la ciencia en un campo subordinado a intereses corporativos disfrazados de objetividad técnica. Pierre Bourdieu apunta en este mismo sentido:
La autonomía que la ciencia había conquistado poco a poco frente a los poderes religiosos, políticos o incluso económicos, y, parcialmente por lo menos, a las burocracias estatales que garantizaban las condiciones mínimas de su independencia, se ha debilitado considerablemente. Los mecanismos sociales que iban apareciendo a medida que dicha autonomía se afirmaba, como la lógica de la competitividad entre los iguales, corren el riesgo de ser utilizados en provecho de objetivos impuestos desde fuera; la sumisión a los intereses económicos y a las seducciones mediáticas amenaza con unirse a las críticas externas y a los vituperios internos, cuya última manifestación son algunos delirios «posmodemos», para deteriorar la confianza en la ciencia, y, muy especialmente, en la ciencia social. (2001, p. 7).
Esta dinámica de “productivismo científico”, sin consideración de los propósitos de transformación social o generación de conocimiento, ha moldeado las prácticas de escritura académica y quizá haya favorecido el surgimiento de fenómenos como la fragmentación de resultados en múltiples artículos, la sobreautoría, la autocitación excesiva y, en casos extremos, la manipulación de datos o el plagio. De este modo, los sistemas de incentivos académicos promovidos por las métricas no solo transforman las formas de publicar, sino también las motivaciones y conductas de quienes investigan, con implicaciones éticas que no pueden ser ignoradas. Una vez más cito aquí a Pierre Bourdieu, quien ya reconocía esta complicación a inicios del siglo XXI: la cienciometría, como él la llamó:
Ofrece a los administradores científicos los medios aparentemente racionales de gobernar tanto lo ciencia como los científicos y de ofrecer unas justificaciones de aire científico o las decisiones burocráticas. Convendría examinar de manera especial los límites de un método que se basa en unos criterios estrictamente cuantitativos y que desconoce las modalidades y las muy diversas funciones de la referencia (puede llegar incluso o hacer caso omiso de la diferencia entre las citas positivas y las negativas).” (2003, p.33)
Los sistemas de evaluación que privilegian o consideran solo aspectos cuantitativos, al convertirse en mecanismos hegemónicos de validación, han sido progresivamente interiorizados por investigadores e instituciones. En este punto es necesario preguntarnos si realmente deseamos considerar lógicas de rendimientos medibles. Este es uno de los grandes retos que enfrenta la evaluación académica. ¿Cómo lograr que la escritura científica y humanística no se oriente por una racionalidad instrumental centrada en acumular citas y estadísticas derivadas de ellas? ¿Podrían la distinción, el reconocimiento y el otorgamiento de recursos económicos vincularse con el cambio y la transformación social en lugar de con la medición cuantitativa?
Para el caso de los beneficios económicos provenientes de recursos públicos que se otorgan a la comunidad académica por su labor de investigación, como ocurre con el SNII en México, podrían explorarse algunas vías que aseguraran que los resultados de los trabajos científicos o humanísticos tuvieran un impacto social. Esta sola idea puede parecer alarmante en el sentido de que se tendrían que establecer agendas temáticas a partir de prioridades nacionales, lo cual podría interpretarse como un atentado contra la autonomía científica. ¿En qué persona o grupo de personas tendría que recaer la responsabilidad de tomar esta decisión? Este dilema —entre pertinencia social y libertad académica— no tiene una solución simple. No obstante, exige una reflexión crítica sobre los valores que deben orientar los sistemas de evaluación: ¿queremos una ciencia cuantificable o una ciencia comprometida con el bien común?
Trampas de la escritura académica: entre la simulación y la presión por publicar
En este entorno académico que he tratado de describir, la escritura científica y humanística ha dejado de ser, en muchos casos, un ejercicio orientado a la construcción de conocimiento, para convertirse en una práctica estratégicamente moldeada por la búsqueda de reconocimiento personal. Bajo la presión de publicar constantemente y de demostrar una productividad cuantificable, han emergido prácticas que, si bien no siempre transgreden abiertamente las normas éticas, sí las tensionan de forma preocupante. En este apartado hablaré de algunas de ellas: el reciclaje de textos, la sobreautoría sin una participación real o sustantiva y la explotación de miembros de la comunidad académica en relaciones verticales de poder. Todas estas prácticas constituyen ejemplos de cómo la escritura académica puede derivar en formas de simulación que ponen en entredicho su integridad. Estas conductas, muchas veces normalizadas, no son ajenas al sistema, sino producto de sus propios incentivos.
La primera de estas prácticas no éticas es el reciclaje de textos. Esta trampa ocurre cuando un autor reutiliza fragmentos sustanciales de su propia obra previamente publicada sin indicarlo de forma explícita, dando la impresión de que se trata de contenido original. Aunque el reciclaje de textos no implica la apropiación indebida de ideas ajenas, sí debería considerarse una forma de simulación académica, toda vez que “maquilla” el aporte real de un nuevo trabajo y contribuye a engrosar los números de la productividad académica de una persona.
Aunque emito mis ideas desde un posicionamiento ético personal, me baso en la propuesta del Committee on Publication Ethics (COPE), que ha establecido lineamientos claros al respecto, distinguiendo esta práctica de ¨reciclaje” del plagio tradicional y señalando sus implicaciones: “El reciclaje de texto, también conocido como autoplagio, ocurre cuando secciones del mismo texto aparecen (generalmente sin atribución) en más de una publicación del propio autor.”9 (COPE, 2016, p. 2). La gravedad del caso depende de diversos factores: la cantidad de texto que es reutilizado, el tipo de publicación en la que ocurre, y el grado de transparencia con que se informa (si es que acaso se informa). En particular, COPE advierte que el problema se agrava cuando el reciclaje afecta la presentación de resultados o conclusiones, o cuando se intenta hacer pasar ideas previamente publicadas como si fueran nuevas.
El reciclaje de textos sin una justificación clara compromete tanto la confianza en la integridad de quien escribe, como la de aquellas publicaciones que lo permiten y de los evaluadores que no pueden (o no quieren) detectar este tipo de circunstancias. John M. Budd y colaboradores (2011) analizaron información de PubMed10 sobre 1,112 artículos de Biomedicina sometidos a revistas científicas entre 1997 y 2009, y descubrieron que un 54 % fue rechazado por algún tipo de mala conducta por parte de los autores (p.391). Entre las razones de rechazo se documentan al menos 36 casos de duplicación de textos por parte de los autores o editores (p.392). Sería interesante conocer si esta práctica se repite o se modifica tomando en consideración el campo disciplinar. ¿Ocurrirá más el reciclaje de textos en ciencias o en humanidades? ¿En qué materias específicas esto será más recurrente?
En el caso de la sobreautoría es conveniente hacer una distinción disciplinar, pues si bien podría resultar extraño encontrar un trabajo en humanidades firmado por más de quince autores, quizá no lo sea tanto en alguna publicación experimental de las ciencias duras. La razón es que, en ocasiones, los equipos de trabajo de un laboratorio son amplios y todos participan de un modo u otro en el desarrollo de una investigación que posteriormente se convertirá en una publicación. Incluso en esos casos puede ser realmente complejo decidir quiénes realizarán la escritura de los resultados y cómo se otorgará el nivel de autoría o reconocimiento.
El reciclaje de textos es un tipo de simulación que resulta útil para aumentar la estadística de productividad académica sin realmente realizar nuevos trabajos, pero no es la única: la sobreautoría —entendida como la inclusión de personas que no participaron de manera sustantiva en la elaboración de una publicación— representa otro tipo de fingimiento, esta vez ligado a la representación del trabajo colectivo. En el contexto de evaluación académica que he tratado de describir, donde las publicaciones son moneda de cambio para ascensos, becas y reconocimientos, la firma de un artículo se ha vuelto un bien disputado, a veces negociado y, en ocasiones, incluso impuesto.
Rodríguez-Venegas y Zamora Fung (2021) hablan de la sobreautoría con el término de “autoría honoraria”, que representa “la desviación más prevalente de los estándares de autoría responsable. Es el autor que se incluye, cuando no ha contribuido para nada o se ha quedado al margen de la investigación.” (2021). Estos autores clasifican a los autores honorarios en tres tipos: el auor de regalo, una persona que es incluida en lista de coautores por gratitud o a espera de que su acción sea recompensada de igual manera; el autor invitado, que implica la adición de una persona reconocida en un campo disciplinario para aparentemente aumentar la calidad del artículo; y, finalmente, al autor coercitivo, que ocurre cuando se agrega el nombre de un superior que exige su inclusión en un trabajo, aún cuando esa persona no ha hecho una contribución significante al mismo.
La autoría, que debería ser un reflejo transparente del aporte intelectual de una persona, se ha visto desvirtuada por este tipo de prácticas que ocurren y son conocidas por el grueso de la comunidad académica. Lamentablemente, el tema de la sobreautoría es muy difícil —si no es que imposible— de probar, pero ocurre y se magnifica por la búsqueda de aprobación y la obtención de mayores incentivos económicos o de prestigio. El último de los casos de sobreautoría que mencioné, el del autor coercitivo, da pie para hablar de la explotación de miembros en la comunidad académica en esquemas verticales de poder. Éste es quizá uno de los mayores problemas que existen al interior de este gremio y puede adoptar diversas formas. Aunque esta manera de abuso está muy normalizada, es al mismo tiempo una de las más silenciadas, ya sea por miedo a represalias o porque las dinámicas institucionales los han normalizado como parte de la cotidianidad académica.
Aunque los abusos de poder en la academia pueden tomar distintas manifestaciones, quiero referirme aquí a aquel que ocurre cuando una persona se apropia del trabajo intelectual de alguien más para hacerlo pasar como propio. Generalmente se presenta en relaciones donde existe alguna jerarquía vertical, como la que se da entre un profesor y sus estudiantes, o entre investigadores consolidados y becarios o pares más jóvenes con menor jerarquía institucional.
Un caso paradigmático de cómo las jerarquías académicas pueden invisibilizar el trabajo intelectual de quienes se encuentran en posiciones subordinadas es el que ocurrió con la astrofísica británica Jocelyn Bell Burnell. Ella, siendo estudiante de doctorado, realizó la observación que condujo al descubrimiento de los púlsares en 1967 al detectar y analizar las señales en los datos del radiotelescopio que ayudó a construir. Un año más tarde, ella, junto con su asesor de tesis, Anthony Hewish (quien fue consignado como el primer autor), y otros colaboradores publicaron un artículo científico en el que anunciaron el descubrimiento de los pulsares. El artículo significó una aportación trascendental en el campo de la astrofísica y seis años más tarde le ganó el Premio Nobel de Física sólo a Antony Hewish y no a Jocelyn Bell. Aunque ella ha declarado públicamente a Physics Today (Feder, 30 de enero de 2019) que entendía las normas de la época en su relación de estudiante-profesor, bajo el horizonte temporal en el que vivimos su exclusión es vista como un ejemplo emblemático de cómo el reconocimiento académico puede ser apropiado o negado en función de las jerarquías (o el género), incluso cuando las contribuciones técnicas y conceptuales de los estudiantes son fundamentales.
En otro ámbito disciplinar, pero bajo una lógica similar de abuso de poder, se encuentra el caso de Elizabeth Goodwin, profesora de genética molecular en la Universidad de Wisconsin-Madison. En 2005, varios de sus estudiantes de posgrado denunciaron haber sido coaccionados para firmar publicaciones con datos manipulados, y que Goodwin había ejercido presión para que guardaran silencio sobre irregularidades metodológicas. Tras realizarse una investigación al respecto:
[…] el informe de la universidad describió ‘evidencia de falsificación deliberada’ en tres solicitudes de subsidio canceladas, que totalizaban 1.8 millones de dólares en fondos federales. [...] Los investigadores también señalaron otros problemas en el laboratorio de Goodwin: ‘al parecer, según el testimonio de sus estudiantes de posgrado, la mentoría de la Dra. Goodwin incluía conductas que podrían considerarse como mala conducta científica, en particular, presionar a los estudiantes para ocultar resultados que no concordaban con los resultados deseados y urgirlos a sobreinterpretar datos que los propios estudiantes consideraban preliminares y débiles’”[11] (Couzin, 2006, p. 1225)
El caso de Elizabeth Goodwin no sólo evidenció la falsificación de datos, sino también expuso un clima de intimidación académica en el que el trabajo de jóvenes investigadores podía ser apropiado, distorsionado o utilizado para consolidar la carrera de una figura de autoridad. Tras este escándalo, Goodwin renunció a su trabajo y la Oficina de Integridad Científica de los Estados Unidos la obligó a aceptar un acuerdo de exclusión voluntaria de tres años, que le prohibió involucrarse en cualquier investigación financiada por agencias del gobierno federal (Fiscalía Federal del Distrito Oeste de Wisconsin, 3 de diciembre de 2010).
La famosa frase que Isaac Newton escribió en una carta a Robert Hooke en 1695 —“If I have seen further it is by standing on the shoulders of giants”, traducida como “Si he logrado ver más lejos, ha sido porque me he subido a los hombros de gigantes”— transmite la idea de que uno de los fundamentos de la ciencia —y que podría extenderse al terreno de las humanidades— es el trabajo acumulativo: cada nuevo conocimiento es posible gracias a quienes lo precedieron y, al mismo tiempo, puede convertirse en la base de nuevas preguntas y planteamientos de investigación. Sin embargo, casos como los de Jocelyn Bell y Elizabeth Goodwin, distintos en su naturaleza —uno relacionado con la invisibilización del mérito y el otro con la apropiación y el fraude—, ilustran de manera clara cómo este trabajo colaborativo, cuya ambición no debería ser otra que la generación de conocimiento, puede convertirse en un espacio de disputa y, en ocasiones, de explotación.
El tipo de prácticas no éticas que he señalado en este apartado —reciclaje de textos, sobreautoría, coacción jerárquica— no solo pone en entredicho la justicia en la distribución del crédito académico, sino que contribuye a reproducir relaciones asimétricas y jerárquicas dentro de los campos científicos y humanísticos. En un entorno donde los incentivos recompensan más la acumulación de métricas que la calidad o la honestidad intelectual, la escritura académica corre el riesgo de convertirse en una actividad performativa, más que en una herramienta para el descubrimiento y el pensamiento crítico. Nos queda entonces una pregunta urgente: ¿es posible, en este marco, sostener una noción genuina de autoría colaborativa y responsabilidad intelectual compartida? Tal vez la respuesta no dependa únicamente de códigos de ética individuales, sino de transformar estructuralmente las condiciones bajo las cuales se produce, se evalúa y se reconoce el conocimiento. Sin ese viraje, la simulación seguirá teniendo más recompensa que el rigor, y la escritura científica se parecerá cada vez más a un campo de batalla que a un espacio de diálogo.
Conclusiones
La revisión de cualquier sistema de evaluación académica muestra que los métodos utilizados para validar el conocimiento no son realmente neutrales ni infalibles. Nunca lo han sido. Sin embargo, esto no significa que sean inútiles o desdeñables. Aunque mecanismos como la revisión por pares han sido fundamentales para garantizar estándares de calidad, también han mostrado limitaciones que se agravan con la saturación del sistema y la creciente presión por publicar, proveniente de una lógica cuantitativa de evaluación. La combinación de métricas cuantitativas con lógicas competitivas ha generado incentivos que no siempre favorecen la integridad, sino que, en ocasiones, la comprometen.
Los casos analizados en este artículo —desde la manipulación deliberada de datos hasta formas más sutiles de simulación como el reciclaje de textos o la sobreautoría— ilustran cómo ciertas conductas no éticas están estrechamente vinculadas con las estructuras de reconocimiento y recompensa académica. Como advierte John B. Thompson (2005, pp. 82 y 83), la publicación académica cumple una doble función: no sólo permite la difusión del conocimiento, sino que también opera como un mecanismo de certificación simbólica. Es decir, el acto de publicar en determinados circuitos conlleva no sólo la exposición de los resultados, sino también su consagración, en un sistema donde el prestigio de una editorial o de una revista funciona como validación pública de su valor.
Frente a este panorama, resulta urgente repensar los modelos de evaluación científica y humanística desde una perspectiva que no reduzca el valor del conocimiento a su rendimiento cuantificable, ni a la aparición o no en determinadas bases de datos o revistas “de prestigio”. Esto incluye reconocer las desigualdades estructurales que atraviesan la circulación del conocimiento, tanto en términos de acceso como de legitimación. Uno de los factores más determinantes en estas asimetrías es el idioma en que se publica: la hegemonía del inglés como lengua de la ciencia ha establecido una barrera lingüística que condiciona qué investigaciones logran visibilidad y cuáles permanecen en la periferia.
La realidad es que el inglés se ha convertido en la lingua franca de la ciencia y la mayoría de las revistas de alto impacto, si no es que todas, se publican en inglés. Incluso algunas revistas publicadas en países no angloparlantes se publican en inglés, como Biochemia Medica, y se espera que los científicos de estos países también publiquen en inglés. Esta situación representa un desafío único para los autores con dominio limitado del inglés, pero incluso algunos de ellos reconocen que es un desafío que deben afrontar. (Roig, 2010, p. 297)12
Como señala Miguel Roig, el idioma inglés se ha convertido en la lengua por excelencia para la ciencia13 y con ello, las posibilidades de obtener legitimidad editorial y visibilidad internacional quedan parcialmente restringidas para quienes no dominan este idioma. En México, por ejemplo, la revista Atmósfera del Instituto de Ciencias de la Atmósfera y Cambio Climático de la Universidad Nacional Autónoma de México se publica sólo en inglés y lo único que incluye en español es un resumen de los artículos. Esta condición lingüística impone barreras adicionales, especialmente para investigadores del Sur global, quienes no sólo deben producir conocimiento riguroso, sino además se ven forzados a traducirlo —literal y simbólicamente— a los códigos de legitimación de los centros hegemónicos.
Con posturas como ésta del idioma, este artículo busca contribuir a una conversación colectiva sobre las condiciones que moldean la producción académica actual. Si queremos preservar la legitimidad de la ciencia y las humanidades como formas de conocimiento crítico, debemos sostener una ética de la escritura que no se limite a lo normativo, sino que se fundamente en el sentido profundo de por qué escribimos, para qué sirve lo que hacemos desde la academia: no para simular, sino para comprender y transformar. Estoy convencido de que es necesario revisar con seriedad y de manera periódica los sistemas de evaluación y reconocimiento vigentes, así como repensar las estructuras editoriales, idiomáticas y económicas que condicionan qué se publica, dónde y con qué efectos.
Este trabajo ha sostenido que los sistemas actuales de evaluación científica, basados en lógicas métricas y de competencia, no solo reproducen prácticas que erosionan la integridad académica, sino que además invisibilizan otras formas legítimas de producción de conocimiento. Quizá la apuesta no deba ser sólo la de revisar constantemente nuestos sistemas de validación de conocimiento, Ambrosio Velasco, en su libro Pluralismo, equidad epistémica, racionalidad y crítica a la epistemocracia (2025) invita a imaginar sistemas de reconocimiento más amplios y democráticos. Frente al sesgo hegemónico que privilegia ciertas lenguas, métodos y centros de validación, el pluralismo radical defiende la coexistencia de múltiples racionalidades, lenguajes y tradiciones de pensamiento, reconociendo la validez de distintos “mundos” de conocimiento. Esta perspectiva permite pensar a las ciencias y las humanidades no como sistemas cerrados de reglas únicas, sino como prácticas culturales situadas, abiertas al disenso y al diálogo con otros saberes. Solo desde esta apertura epistémica será posible construir sistemas de evaluación más justos, que respeten la diversidad y contribuyan a la equidad cognitiva.
La situación descrita en estas páginas demanda que, como integrantes de la comunidad académica, asumamos una posición crítica frente a las condiciones bajo las cuales producimos y validamos el conocimiento. No se trata sólo de denunciar prácticas individuales reprobables si no se cuestionan también los marcos institucionales y simbólicos que las hacen posibles. En este sentido, es urgente reconstruir un horizonte de sentido donde la ética académica no sea sólo un conjunto de normas, sino una práctica situada, consciente de las relaciones de poder, los sesgos estructurales y las condiciones materiales que atraviesan la escritura científica y humanística.
Como ya lo advirtió Pierre Bourdieu, “la autonomía que la ciencia había conquistado poco a poco frente a los poderes religiosos, políticos o incluso económicos, y, parcialmente por lo menos, a las burocracias estatales que garantizaban las condiciones mínimas de su independencia, se ha debilitado considerablemente” (2003, p. 7). Esta advertencia, lejos de haber perdido vigencia, interpela hoy con mayor fuerza a quienes nos dedicamos a la investigación. Si no queremos que la producción académica se convierta en un reflejo de intereses ajenos a la búsqueda del conocimiento, es necesario defender y reconstruir las condiciones que garanticen su autonomía crítica.
Bibliografía
Barragán Vergel, M. F. (2017). Autoplagio y duplicación: un asunto en contra de la ética en la investigación científica. MedUNAB, 20(3) 3. Colombia: Universidad Autónoma de Bucaramanga. pp. 293-295. https://doi.org/10.29375/01237047.3248
Beigel, F., Fischman, G. y Lujano Vilchis, I. (2023). Tecnologías y democratización del conocimiento. Argentina: Consejo Latinoamericano de Ciencias Sociales (Clacso) / IEC CONADU.
Bourdieu, P. (2003). El oficio del científico. España: Editorial Anagrama.
Committee on Publication Ethics (COPE) (2016). Text Recycling Guidelines for Editors. https://publicationethics.org/guidance/endorsed-guidance/text-recycling-guidelines-editors
Couzin, J. (2006). Truth and consequences. Science, 313(5791), 1222–1226.
Declaración de Heredia. Principios sobre el uso de inteligencia artificial en la edición académica (2024). Revista Electrónica Educare, 28(S), 1-8. https://doi.org/10.15359/ree.28-S.19967
Feder, T. (30 de enero de 2019). Q&A: Pulsar pioneer Jocelyn Bell Burnell. Physics Today. https://pubs.aip.org/physicstoday/online/5305/Q-A-Pulsar-pioneer-Jocelyn-Bell-Burnell?utm_source=chatgpt.com
Fiscalía Federal del Distrito Oeste de Wisconsin (3 de diciembre de 2010) Former UW professor sentenced for submitting false grant reports [Comunicado de prensa]. Departamento de Justicia de los Estados Unidos. https://www.justice.gov/archive/usao/wiw/press/2010/September%203,%202010%20-%20Former%20UW%20Professor%20Sentenced%20for%20Submitting%20False%20Grant%20Reports.pdf
Goss Levi, B. (2002). Investigation Finds that One Lucent Physicist Engaged in Scientific Misconduct. Physics Today 55(11), 15-17. https://doi.org/10.1063/1.1534995
Hurtado, A. y Pacheco, J. (2014). Consecuencias de la importación de modelos de indexación para medir la producción académica nacional. Revista Educación y Desarrollo Social, 8(1) pp. 70-83. https://revistas.umng.edu.co/index.php/reds/article/view/588
Kronick, D. (1990). Peer review in the 18th-century scientific journalism. JAMA, 263(10) pp. 1321-1322. https://jamanetwork.com/journals/jama/article-abstract/380935
Ladrón de Guevara Cervera, M.; Hincapié, J.; Jackman, J.; Herrera, O. y Caballero Uribe, C. V. (2008). Revisión por pares: ¿Qué es y para qué sirve? Salud Uninorte. 24(2). Barranquilla, Colombia: Universidad del Norte. pp. 258-272.
Robbins, B. y Rose, A. (2000). Response: Mystery Science Theater. The Sokal Hoax. The Sham that Shook The Academy. Estados Unidos: Universidad de Nebraska. pp. 54-58.
Rodríguez-Venegas, E. C. y Zamora-Fung, R. (2021). Autoría y dilemas éticos en la publicación científica. Revista Cubana de Medicina. 60(1) http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0034-75232021000100003
Roig, M. (2010). Plagiarism and self-plagiarism: What every author should know. Biochemia Medica, 20(3) pp. 295-300. https://www.biochemia-medica.com/en/journal/20/3/10.11613/BM.2010.037/fullArticle
Sample, I. (13 de julio de 2025). Quality of scientific papers questioned as academics ‘overwhelmed’ by the millions published. En The Guardian [en línea]. https://www.theguardian.com/science/2025/jul/13/quality-of-scientific-papers-questioned-as-academics-overwhelmed-by-the-millions-published?utm_source=chatgpt.com
Thompson, J. B. (2005). Books in the digital age. Reino Unido: Polity Press.
Velasco Gómez, A. (2025). Pluralismo, equidad epistémica, racionalidad y crítica a la epistemocracia. México: Fondo de Cultura Económica / Consejo Nacional de Ciencias, Humanidades y Tecnología.
Notas
Notas de autor

