La credibilidad de las revistas científicas se fundamenta en los controles que se han venido implementando para lograr que los trabajos que se publican en ellas sean lo suficientemente buenos, interesantes, relevantes y rigurosos.
Entre esos controles, como ya decíamos en entrega anterior, está la revisión por pares, las políticas antiplagio, las declaraciones de conflictos de intereses, las declaraciones sobre financiación de la investigación que se publica, la estandarización de los elementos mínimos, entre otros.
Las editoras de revistas científicas corren una intensa carrera para que los trabajos que ellas publican tengan, no sólo calidad, sino visibilidad en el mundo académico al cual intentan impactar. Esto ha llevado a que se interesen en aparecer en bases de datos internacionales que, a su vez, por las exigencias que tienen para colocar en sus catálogos revistas y artículos, generan confianza en la comunidad académica y logran un gran impacto en el sentido de que los investigadores prefieren leer y citar trabajos que se encuentran indexados esas grandes bases de datos.
Partiendo de la premisa de que los controles impuestos por las bases de datos a las revistas que indexan resultan en altos niveles de calidad en los trabajos publicados, las universidades de todo el mundo comenzaron a fomentar que sus profesores e investigadores publicaran sus trabajos en estas revistas.
En este contexto, surgieron los rankings, que clasifican a autores y revistas en función del número de citas que reciben. Sin embargo, este orden se establece de manera puramente cuantitativa. Puede ocurrir que un autor sea muy citado porque todos los miembros de su comunidad académica se han visto obligados a refutar los planteamientos, procesos, hallazgos o conclusiones presentados en sus trabajos. Esto le generaría muchas citas, pero no necesariamente un impacto positivo.
Esos rankings también clasifican a las universidades e institutos de investigación, lo que ha provocado que, más allá de promover la publicación en revistas indexadas, en las universidades se persiga aparecer en los primeros puestos de los rankings, pues eso redunda en beneficios diversos para las organizaciones.
En esa vorágine, las universidades han empezado a condicionar incentivos y promociones laborales de sus profesores e investigadores a la cantidad de artículos indexados publicados. Y esto, a su vez, ha desembocado en unas prácticas claramente antiéticas que, una vez más, ponen en tela de juicio la credibilidad de estos procesos para “hacer ciencia” (investigar, publicar, reproducir, compartir y enseñar conocimiento científico).
Los escándalos más recientes involucran los “papers mills”, que son fábricas de estudios científicos, ubicadas principalmente en India, que ofrecen artículos escritos y listos para ser publicados en revistas especializadas e indexadas, a cambio de sumas de dinero que varían dependiendo del oferente.
Adicionalmente se critica la oportunidad de negocios que han visto algunas editoriales, que cobran grandes sumas al autor para publicar (por los costos editoriales de revisión, diagramación, publicación y demás), y cobran también a los lectores para acceder a esos trabajos por los cuales ya pagó el autor y, para colmo, no suelen pagar a los que fungen como revisores, de entre los cuales ya algunos han elevado la queja de que se les pide que trabajen gratuitamente, cuando la editorial se está lucrando con su labor y, de hecho, se han estado negando a revisar para esas editoriales que trabajan bajo ese modelo.
En esa «oportunidad de negocios», destaca el modelo de la editorial MDPI, con sede en Basilea (Suiza), que controla 427 revistas y que es conocida por publicar una gran cantidad de estudios, lo que dificulta garantizar la calidad. Incluso se dice que MDPI presiona a sus editores para aceptar estudios de baja calidad para aumentar los ingresos. Además, las revistas de MDPI ofrecen una vía sencilla para publicar estudios, gracias a sus requisitos menos exigentes. Un científico puede enviarles un trabajo y verlo publicado en apenas un mes tras una revisión superficial. Lo que es muy favorable cuando el individuo está enfocado en los incentivos y promociones y no en aportar a la ciencia desde su área.
Algunos casos especiales que han llamado la atención, y han hecho que se ponga el foco recientemente en el negocio de las publicaciones indexadas son los de los autores más prolíficos: uno que publica un estudio científico cada dos días (José Manuel Lorenzo); otro que publicó 112 estudios en un año (Josep Peñuelas) y el de Jesús Simal, quien se anotó 110 estudios sólo el año pasado. Además están los casos de Ai Koyanagi y Rafael Luque, quienes han sido suspendidos de sus empleos por firmar artículos de dudosa procedencia y de universidades distintas a las que laboran que, al parecer, les han pagado para que, como autores de alto impacto, les ayuden a aumentar sus lugares en los rankings.
Frente a estos y otros casos, se han tomado algunas medidas. Por ejemplo, se está cuestionando el modelo actual de publicación de revistas científicas que cobran a los autores por publicar sus estudios. Y se ha estado promoviendo la idea de un sistema alternativo, como una plataforma en la que los investigadores no paguen ni por leer ni por publicar sus estudios. Ya en Europa existe el Open Research Europe, que se dedica a esta labor.
También se están llevando a cabo investigaciones y sanciones a los científicos que se encuentran involucrados en prácticas cuestionables, como la publicación excesiva de estudios, la coautoría de estudios en los que no han participado activamente, y la declaración falsa de su lugar de trabajo principal. Y, adicionalmente Web of Science, una prestigiosa base de datos internacional utilizada para evaluar el rendimiento de los investigadores, ha desarrollado un nuevo programa de inteligencia artificial para detectar revistas sospechosas. Hasta la fecha, han detectado más de 500 revistas de este tipo y han expulsado a más de 80.
Como vemos y veremos, a pesar de los problemas y limitaciones que existen en el sistema de publicación científica, aún parece haber razones para seguir confiando en su credibilidad.
La primera es el hecho de que la ciencia es un proceso autocorrectivo. Aunque existen casos de mala conducta y errores, la naturaleza de la ciencia es tal que estos problemas eventualmente salen a la luz y se corrigen. Los estudios se replican y los resultados se verifican. Si un estudio es defectuoso o fraudulento, es muy probable que con el tiempo sea desacreditado, máxime si este tiene algún nivel de impacto en la comunidad científica o en la sociedad en general.
Por otro lado, la revisión por pares, aunque no es perfecta, sigue siendo una de las mejores formas de garantizar la calidad de la investigación científica. Pues los revisores son expertos en su campo que evalúan críticamente la metodología y los resultados de un estudio antes de que se publique y, aunque este sistema puede ser susceptible a errores y sesgos, en general ayuda a garantizar que la investigación publicada sea de alta calidad.
Finalmente, las revistas científicas son una parte esencial de la comunicación científica en la actualidad, ya que proporcionan un foro para que los científicos compartan sus hallazgos tanto con la comunidad científica como con el público en general. A pesar de los problemas existentes y otros que puedan surgir en el sistema de publicación, las instituciones continúan trabajando de manera constante para abordar estos desafíos. Además, los propios intelectuales, actuando como observadores críticos, comenzarán a proponer modelos alternativos cuando perciban que el sistema actual ya no puede ser salvado. Estos modelos alternativos eventualmente serán sometidos a prueba y, si demuestran ser más efectivos, es muy probable que se adopten, ya que el objetivo principal de la ciencia es avanzar en este proceso de autocorrección.