...

Publicar (casi exclusivamente) en revistas de impacto

by user

on
Category: Documents
0

views

Report

Comments

Transcript

Publicar (casi exclusivamente) en revistas de impacto
I.S.S.N.: 1138-2783
Publicar (casi exclusivamente) en revistas
de impacto
Publish (almost exclusively) in high impact
journals
Lorenzo García Aretio
UNED - España
Me tienta escribir sobre esta cuestión y, por primera vez en una
revista científica, me voy a expresar en primera persona del singular.
He dudado bastante si redactar este trabajo o no. Lo voy a hacer, pero
aclarando antes alguna cuestión de carácter personal. Voy a ser crítico
con los sistemas de reconocimiento de aquellos trabajos científicos
que ostentan el valor de haber sido publicados en revistas con un
determinado factor de impacto. Hago esta introducción de carácter
personal ya que quienes lean lo que sigue sin antes haber mirado los
párrafos iniciales podrían emitir un juicio poco favorable hacia este
texto. Bueno, aun mirándolos es probable que lo hagan.
Como resulta que formo parte del sistema establecido, pues no me
queda más remedio, si quiero seguir en el sistema y promocionar desde
dentro, que aceptar las reglas establecidas. Y entonces, resulta que
hice lo necesario para obtener el máximo de sexenios de investigación
que podía ganar desde que me incorporé tardíamente a la vida
universitaria plena (a mis 41 años). Y acepté entrar en la dinámica de
méritos, y luché por ellos, para alcanzar el máximo nivel dentro de la
universidad española, el de catedrático de universidad. Dado mi interés
por el mundo de las publicaciones, más allá de que posteriormente
critique el sistema, hice los mayores esfuerzos en mi mano por lograr
que las dos revistas científicas por mí dirigidas alcanzasen el máximo
AIESAD
RIED v. 18: 2, 2015, pp 7-22
7
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
posible de ese denominado “factor de impacto”. Así, siendo director
(2003-2012) de Educación XX1, junto a mi equipo, especialmente
Ruíz Corbella, logramos que la aceptasen en el JCR (pocas revistas de
educación existen en España en esa base) y la otra, nuestra RIED, en
la que seguimos luchando por aceptar e introducir todas las mejoras
necesarias para continuar escalando peldaños. Para ascender en ese
ranking establecido por unas empresas, generalmente privadas, que
entienden sobre estos temas. Más aún, quien escribe estas líneas ha
formado y forma parte como experto de algunas agencias de evaluación
y acreditación que cuentan en altísimo porcentaje con esos criterios,
que ahora critico, para la promoción del profesorado.
Además, soy miembro de comités científicos de varias revistas y
revisor externo de otras muchas. Es decir, metido hasta dentro en el
sistema. Quizás por eso lo conozco bien, como otros tantos colegas que
tendrán sobre el tema ideas semejantes o discrepantes de las mías.
Es suma, yo me obligué a cumplir con lo que ahora critico. Era una
opción de la que en absoluto me arrepiento. Pero una cosa es habitar,
sin remedio, dentro del sistema y promocionar dentro de él, y otra
bien diferente es criticar aquello con lo que no estás de acuerdo. Y
me consta que hay muchos colegas que podrían asumir lo que aquí
voy a escribir pero que no se animan a hacerlo públicamente porque,
nunca se sabe… Otros, sin embargo, defienden lo establecido como
la exclusiva forma de garantizar la calidad de la investigación y la
promoción de los investigadores. Y esa opinión para mí es igualmente
respetable, aunque menos compartida. Así, me animo a escribir este
trabajo con alguna dosis de acidez y no falto de puntos de ironía que, a
veces, en el rigor exigido a un trabajo académico, no viene mal. En fin,
vamos a ello.
Publish or perish
Parto del supuesto de que en el mundo universitario, la máxima
aquella de «Publicar o perecer” (Publish or perish) se convierte en
dogma y cobra todo su sentido cada vez más en nuestros días (Bornmann
y Daniel, 2009). Saber mucho o suficiente de algo, obtener resultados
de una potente o menos potente investigación, sin darle visibilidad,
8
RIED v. 18: 2, 2015, pp 7-22
I.S.S.N.: 1138-2783
AIESAD
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
sin diseminarla, sin someterla a la interacción y juicio de otros colegas,
sin facilitarla al resto de la comunidad científica, es un gran desatino.
No publicar los resultados del trabajo serio llevado a cabo a lo largo de
años supone una gran pérdida para la sociedad. Cuántas innovaciones
se desaprovechan, cuántas mejoras para la comunidad no concluyen,
cuánto pensamiento valioso no se exhibe (Clapham, 2005). Todo ello
es como un delito para la ciencia y el avance del conocimiento. Si
formas parte del mundo universitario o publicas los resultados de tus
investigaciones para acrecentar el conocimiento y promocionar en tu
situación académica, o “no existes” y no se justifica el esfuerzo inversor
realizado en tu formación.
Investigar ha sido objetivo básico y fundamental en la universidad
desde siempre. Publicar es la estrategia ideal para mostrar los
resultados de la investigación. El problema es cuando el objetivo
del universitario, en lugar de investigar es publicar y sólo publicar.
La realidad es que hoy publicar puede suponer logro de notoriedad,
prestigio, promoción y reconocimiento personal, aumento de los
ingresos, obtención de recursos, etc. (Craig y Weeler, 2011). Así,
damos razón al axioma, publicar para seguir existiendo y prosperar.
Además, las instituciones presionan para publicar. Sería algo así como
cantidad más que calidad. Por eso han proliferado revistas científicas,
algunas de las cuales se lucran con las necesidades de publicar por
parte de los docentes universitarios. Pero es así, las revistas científicas
se convierten en una especie de registro público del desarrollo de la
ciencia y, quizás por ello, en una recompensa y reconocimiento para
quienes escriben en ellas (Delgado y Ruíz, 2009).
Lo malo es que esos docentes llegan a olvidar que otra de sus
obligaciones, fundamental, es la de ser un buen profesor. Pero eso
no cuenta, quizás sí para los estudiantes que reciben sus enseñanzas,
pero no para el prestigio académico y profesional. De esa manera se va
perdiendo en las universidades la ilusión por la innovación didáctica y
la calidad de la docencia. ¡Todo sea en aras de la publicación!
Cuando nuestros maestros universitarios de hace pocas décadas
ejercían su magisterio, cierto que, al menos en las áreas de Humanidades
y Ciencias Sociales, no existían esas presiones de, casi exclusivamente,
AIESAD
I.S.S.N.: 1138-2783
RIED v. 18: 2, 2015, pp 7-22
9
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
publicar para poder permanecer en la universidad y, sobre todo, para
mejorar el estatus promocionando a categorías docentes superiores.
No, aquello no funcionaba del todo así. Usted sabía o no sabía y eso
lo tenía que probar ante un exigente tribunal. Para promocionar no
resultaba exclusivo contar con determinado número de publicaciones,
aunque era importante, y mucho menos, la exigencia de hacerlo a
través de artículos en revistas internacionales, sobre todo en los
campos científicos de Humanidades y Ciencias Sociales. Ya, a partir
de los años 80 y 90 del siglo pasado, sobre todo, se fue introduciendo
este hábito.
En la cultura de la investigación de ciertas áreas del saber, en
décadas anteriores, ha primado, se ha fijado, se ha venido considerando
de forma prioritaria, la publicación de la investigación en revistas
de impacto sobre todo en campos distintos a los de Humanidades y
Ciencias Sociales. Ámbitos de publicación científica por antonomasia
han venido siendo las ramas de las Ciencias (Matemáticas, Física,
Química, Biología, Geología...), Ciencias de la Salud e Ingenierías. Los
humanistas, sociólogos, filósofos, filólogos, pedagogos, etc., ¿hacemos,
entonces, investigación científica?
No se va a justificar aquí que, ¡claro que se investiga en esas áreas!
En mi cercano campo, el de la Educación, el de la Pedagogía, se hace
investigación científica y parte de ella muy buena. Y hoy existen
excelentes revistas, aunque escasas, a nivel internacional situadas
en el concierto de esos términos mágicos para nuestra comunidad
universitaria, el factor de impacto (FI). Cierto que este índice
bibliométrico es útil para evaluar la producción científica y la calidad
de una revista. Lo que sucede es que se ha extremado su relevancia y
ya se usa, casi en exclusiva, para evaluar artículos, revistas, docentes,
universidades, países, áreas, etc. (Buela-Casal, 2010).
¿Qué hacían los académicos de pocas décadas atrás y sus
antecesores, humanistas o pedagogos? Pues sí, publicar, publicar en
aquella época. Pero ¿en revistas científicas de «impacto»? ¿Había
suficientes entonces en educación? Quizás alguna sí, muy pocas.
Otros hacíamos lo que era común, escribir libros. Volcar en los libros
aquello que sabíamos, aquello sobre lo que investigábamos, con una
10
RIED v. 18: 2, 2015, pp 7-22
I.S.S.N.: 1138-2783
AIESAD
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
determinada sistematización y estructura. Mostrar en ese formato las
investigaciones que realizábamos. ¿Cuántas excelentes investigaciones,
cuántos ensayos, cuánta ciencia se han mostrado en los ámbitos de
las Humanidades y de las Ciencias Sociales a través de libros que hoy
siguen siendo referencia en su campo del saber?
Al principio tenía algo de valor (últimamente cada vez menos)
publicar libros en ciertas editoriales de prestigio con sistema de
valoración de originales a través de revisores externos. En todo caso,
alegra saber que la Thomson Reuters sigue avanzando en su Book
Citation Index consciente del problema que para las ramas citadas de
Humanidades y Ciencias Sociales tiene el que casi se haya eliminado esta
práctica a la hora de valorar méritos de investigación. Aunque valorar
los índices de citas de libros resulta complejo, parece interesante que
se esté abriendo esta vía que puede resultar de interés para los campos
citados y otros de menor relieve (Torres, Robinson, Campanario y
Delgado, 2013). Véase que en el sitio web correspondiente, http://
wokinfo.com/products_tools/multidisciplinary/bookcitationindex/,
en el momento de redactar este trabajo, aparecen registrados 60.000
libros que vienen aumentando, en torno a 10.000 cada año. Y de ellos,
el 61% corresponden a las áreas de Ciencias Sociales y Humanidades,
que es lo que deseaba argumentar.
Hace no demasiado tiempo, las agencias de evaluación, acreditación,
calidad..., tanto a nivel español como de la mayoría de países avanzados,
elaboraron sus indicadores, índices y referentes para evaluar la
producción científica de los universitarios, pero generalmente con
criterios exclusivamente de esas ciencias más formales. Se fueron
estableciendo baremos, listas de revistas científicas con índice o factor
de impacto, escalas de puntuaciones, etc. Así, los jóvenes docentes
universitarios de hoy tienen más claro que nunca cómo escalar
peldaños en su reconocimiento y acreditación académica porque
todo está pautado y es explícito. Otra cuestión es que posteriormente
se convoquen las dotaciones de plazas docentes para las que fueron
acreditados.
Es normal que hoy el profesor universitario novel no atienda
ciertas peticiones de colaboración en determinadas tareas si esa
AIESAD
I.S.S.N.: 1138-2783
RIED v. 18: 2, 2015, pp 7-22
11
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
«colaboración» no va a ser considerada por la agencia evaluadora de
turno. Ahora el dicho «publicar o perecer» colapsa otras dimensiones
de la vida académica universitaria. Porque no sólo hay que hacerlo,
sino hacerlo en este sitio y formato. Los demás, al parecer, no valen o
cuentan con muy escasa consideración. Quiero señalar que un buen
libro, producto de una excelente investigación, viene a valer menos
(quizás no valga nada) que un artículo mediocre que «coló» en una
revista de dudosa relevancia pero con factor de impacto. Y no es la
buena revista la que debería hacer bueno el artículo publicado en ella,
sino al revés (Sternberg, 2003).
Pero, ¿dónde está el impacto?
Bien sabemos que el Factor de Impacto, habitual en el Journal
Citation Reports (JCR), de una revista científica para un año
determinado, se calcula dividiendo las citas que ese año han
recibido los artículos publicados durante los dos años anteriores
entre el número total de artículos publicados en esos dos años. Esa
se ha convertido en medida estándar para premiar o sancionar a los
docentes/investigadores universitarios. Sin embargo, más allá de
aceptar el valor de este indicador, no vendrá mal reflexionar sobre las
dudas que suscita una métrica que se ha elevado a consideración de
casi exclusividad a la hora de valorar méritos investigadores. ¿Saben
cuántas corruptelas para aumentar el número de citas de un artículo?
Ebrahim y otros (2013) recopilan hasta 33 estrategias diferentes que
pueden llegar a aumentar ese número de citas, que puede propiciar
las posibilidades de una revista y, en consecuencia, de los artículos ahí
admitidos para aumentar su factor de impacto.
Son demasiados los trabajos de excelencia publicados en revistas
con revisión por pares (peer review), exigentes y reconocidos, con alto
grado de difusión, accesibilidad y visibilidad pero que no cuentan con
el OK de las comisiones de valoración de las diferentes agencias. Es
decir, no han recibido el placet de una determinada empresa privada
internacional que decide cuál sí y cuál no es merecedora de «premio».
Sin gran esfuerzo de exploración, puede detectarse que un
determinado artículo que pudiera considerarse por muchos pares
12
RIED v. 18: 2, 2015, pp 7-22
I.S.S.N.: 1138-2783
AIESAD
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
de calidad mediocre, fue evaluado por dos expertos que, o fueron
generosos o entendieron, según su respetable criterio, que el artículo
era bueno y merecía ser publicado en esa revista de «impacto». Pues
bien, ese artículo se publica, «cuenta» como mérito de relevancia para
el autor o autores, pero ese trabajo no lo va a leer casi nadie, ni nadie
lo va a citar. Pero ha servido para la promoción de quien lo escribió.
Es probable que transcurridos 6-8 años, el artículo en cuestión no
haya recibido una sola cita o un número extremadamente escaso de
ellas. Esto puede comprobarse fácilmente acudiendo Web of Science
(WoS), Scopus o, más sencillo, a Google Scholar. Por contra, cuántos
libros fruto de mucho esfuerzo, cuántos trabajos de calidad elevada,
publicados en esas otras buenas revistas, aunque sin factor de
impacto reconocido, pero bien indexadas o, incluso, en reconocidos
blogs académicos impactan realmente, al menos socialmente, en
la comunidad universitaria internacional y vienen a ser trabajos de
referencia académica, muy leídos y muy citados, pero no sirven para la
promoción académica de los docentes universitarios porque, aunque
buenos y muy citados, no fueron publicados en donde, según otros,
había que publicar.
A los pocos años de funcionamiento de la evaluación de sexenios
de investigación (productividad investigadora) en España para el
profesorado universitario, por parte de la agencia correspondiente
(CNEAI - Comisión Nacional Evaluadora de la Actividad
Investigadora), empezó a calar en la comunidad universitaria aquello
de que los libros «no contaban» o «contaban poco» a la hora de
valorar los méritos de investigación de un docente universitario. Lo
importante era el artículo en revista con índice o factor de impacto.
Fueron muchos los colegas de entonces que actuaron en consecuencia
y dedicaron sus esfuerzos a publicar en revistas y empezaron a declinar
la elaboración de libros, ensayos, monografías, y también ignoraron
otras formas de divulgación científica entonces a través de revistas
«no de impacto» aunque pudieran ser de alta difusión. Cierto que esta
fue probablemente la causa de que los científicos españoles empezaran
a aparecer en revistas de destacado relieve internacional (Galán, 2011)
y, sin duda, estos colegas escalaron con rapidez a otras categorías
AIESAD
I.S.S.N.: 1138-2783
RIED v. 18: 2, 2015, pp 7-22
13
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
docentes superiores. Es decir, parece que se trata de medir sólo el
impacto dentro de la comunidad científica olvidando otros reales
impactos que suceden fuera de esos círculos selectos y que, sin duda,
ofrecen en muchos casos grandes vías para el progreso de la sociedad,
objetivo de los avances científicos, ¿impacto social?
Otros no hicieron caso y continuaron actuando de igual modo.
Probablemente no consiguieron los sexenios de investigación que
poco a poco en España se vinieron convirtiendo en la unidad básica
de medida de la productividad investigadora en la Universidad y,
en consecuencia, de la promoción y recepción de complementos
retributivos y otros recursos. Y, finalmente, los terceros, entre los que
me encuentro, hicieron (hicimos) lo necesario para la consecución de
esos sexenios exigidos en esa supuesta universidad de calidad, pero
además de eso, continuamos divulgando el conocimiento a través de
libros, artículos breves y posteriormente, también, a través de blogs,
redes sociales, etc. Pero, según algunos esto no es impacto. Y tienen
razón, si se aferran a las definiciones, al uso sobre los índices y factores
de impacto de la productividad científica. ¿Podría ser impacto social?
Además de lo señalado, con este rasero de medida, los campos más
pequeños en el ámbito científico, juegan y jugarán siempre un papel
muy limitado. Es decir, por ejemplo, un investigador líder en un campo
científico más reducido, juega con desventaja porque los campos de
investigación amplios y más tradicionales cuentan con multitud de
revistas que forman parte de estas élites y por tanto se autogeneran
cuantiosas citas y en consecuencia, más revistas y con mayores factores
de impacto. Así, un líder de estos campos extensos lucirá unos índices
muy superiores al otro, al del campo de las Humanidades, por ejemplo,
pudiendo ser este último un auténtico sabio. Además de los campos de
investigación, también la propia lengua en que se publica el artículo
limitan la eficacia de estos sistemas (Matsuda y Tardy, 2007).
¿Cómo comparar investigaciones de carácter clínico o biológico
publicadas en revistas con elevadísimo factor de impacto y que son
citadas en otras del mismo campo o de área cercana, con una valiosa
investigación realizada, por ejemplo, en el campo de la educación,
donde existen muy pocas revistas y las que hay, la mayoría, con escaso
14
RIED v. 18: 2, 2015, pp 7-22
I.S.S.N.: 1138-2783
AIESAD
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
factor de impacto? Quizás esta última fue una investigación o un
trabajo original destinado a cierta aplicación de carácter pedagógico,
innovadora y muy válida, posiblemente, para amplios colectivos
de docentes pero, quizás, no realizada con el objeto de ser citada.
¿Podemos aplicar el factor de impacto (métrica de citas) a este artículo
como medida de su calidad?
Podría entenderse que el factor de impacto de las revistas y artículos
considerado de forma universal, para todos los ámbitos científicos, no
resulta ser el instrumento de medida más adecuado, ¿podrían existir
otras métricas? A ello me referiré en otro trabajo, en su momento.
Cuando se investiga es indudable que interesa publicar el fruto de
esos trabajos. Y si se publica algo, lo que se desea es que sea leído. Por
eso, fuera de los circuitos de los JCR, debería publicarse allí donde se
puede entender que podría existir accesibilidad y visibilidad. Cuando
se trataba de libros, en editoriales que tuviesen buenos servicios de
difusión y distribución, cuando se tratase de artículos, en revistas o
soportes, igualmente bien accesibles y visibles. Esa ha sido la forma
de entender el «impacto», en este caso parece que social, por parte de
muchos colegas. Si aquello que escribes es ignorado por los demás,
mala cosa. Pero si es seguido, leído y, probablemente citado, puede
pensarse que mereció la pena el trabajo. Más allá de que la excelencia
la califiquen otros, igualmente universitarios como los que han citado
ese artículo.
¿Y los revisores que certifican el impacto?
Las políticas sobre publicaciones científicas han venido
generalizando, prácticamente desde la segunda mitad del siglo
pasado, las prácticas del peer review como garantía de publicación
sólo de los mejores artículos, de rechazo de aquellos que no alcanzan
los parámetros establecidos o de mejora de los que fueron aceptados
(Tavares, 2011).
¿Quiénes son los evaluadores, árbitros, revisores, referee de ciertas
revistas? Deberíamos suponer que son cualificados expertos en el
campo, con capacidad investigadora demostrada y con publicaciones
relevantes. Y estos revisores deben conformar un grupo plural en cuanto
AIESAD
I.S.S.N.: 1138-2783
RIED v. 18: 2, 2015, pp 7-22
15
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
a su procedencia, tanto institucional como geográfica. Resultaría
de sumo interés el realizar una investigación sobre estos revisores
respecto a su cualificación como investigadores (investigaciones y
publicaciones realizadas en el campo de estudio que evalúan). Cierto
que no podríamos conocer qué revisores y de qué artículos concretos,
porque entonces se perdería el valor del arbitraje anónimo a través
del sistema de “doble ciego”, pero sí podríamos contar con valiosa
información sobre quiénes evalúan los trabajos de una determinada
revista. Nos podríamos llevar algunas sorpresas al poder comprobar
hipotéticamente quien podría evaluar un buen artículo de un ilustre
en una de esas revistas.
Cuántos casos de autores de prestigio cuyos artículos vienen a
ser evaluados por revisores con mucho menor nivel investigador
que ellos mismos y con mucho menor número de publicaciones. En
muchos casos, las revistas se adornan de potentes consejos o comités
científicos. Creemos que esas listas deberían suponer un espaldarazo
para la revista, siempre que esos miembros sean a la vez, revisores de
la misma. Una valoración de estos comités conformaría otro elemento
de valor en este tipo de publicaciones.
Aunque no podemos ocultar la paradoja que la propia experiencia
nos aporta. Tras nuestra experiencia como director de dos revistas y
la consulta a otros cinco directores de revistas, si se valora la calidad
de los juicios y la argumentación de las decisiones que los revisores
de artículos científicos nos aportan, resulta que en algunos casos,
aquellos revisores más cualificados según trayectoria profesional
vienen a realizar evaluaciones más superficiales, menos cuidadas,
menos meticulosas y más generalistas, mientras que revisores noveles,
con menos experiencia, se esmeran en argumentar, estudiar bien el
artículo y cuidar sus juicios. O sea, más complicación y controversia
sobre este tema.
En algún caso, nos podríamos encontrar con prácticas de más
dudosa ética. Aquella que puede suponer que un artículo llegue a un
revisor “muy ocupado”, éste acepte la revisión y después pida ayuda a
un colaborador. En fin, un trabajo original rodando de mano en mano,
de cabeza en cabeza. Y no pensemos mal.
16
RIED v. 18: 2, 2015, pp 7-22
I.S.S.N.: 1138-2783
AIESAD
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
¿No hemos sido protagonistas o hemos conocido (yo al dirigir dos
revistas, en bastantes ocasiones) casos de evaluaciones negativas de
un artículo para ser publicado en una revista y ese mismo artículo,
sin cambiar una coma, es publicado en otra, incluso de mayor relieve
que la anterior? Y no siempre por convencimiento de la bondad o
mediocridad real del trabajo. En muchos casos puede darse una
calificación negativa o positiva a cierto trabajo, tras una apresurada
valoración (no se dispone de tiempo para otra cosa) o una evaluación
poco consistente y sin argumentos sólidos para rechazar o aceptar.
Al hilo de todas estas reflexiones y análisis, comprobamos que
existe literatura suficiente (Artiles, 1995; Jara, 1999; Osca, Civera y
Peñaranda, 2009; Torres, Herrera y Sarduy, 2005; Fernández, 2006;
Valenzuela, 2008) en la que se comprueba que artículos publicados
en revistas de relieve, tras posteriores revisiones, se constata que
cuentan con errores más o menos significativos, por ejemplo, errores
de tipo gramatical, errores en el título, resumen, palabras clave, en la
metodologías, en los análisis de datos, en los estadísticos aplicados,
en las citas y referencias bibliográficas, etc. Por el contrario, artículos
rechazados en esas mismas revistas y publicados posteriormente en
otra de menor relieve han supuesto un hito y referencia en su ámbito
de saber.
Aunque de años atrás, resulta muy relevante el caso que cita
Campanario (2002), en el que Gans y Shepherd (1994) realizaron un
estudio entre los economistas más relevantes según su juicio, grupo
en el que se encontraban los 20 premios nobel de Economía, entonces
aún vivos. Sólo tres de los 20 economistas ganadores del premio Nobel
afirmaron que nunca habían tenido un artículo rechazado. Y de esos
artículos rechazados, algunos, según los propios economistas, eran
sus trabajos predilectos y los de mayor influencia en el mundo de la
economía.
Bohanon (2013) revela cómo fue aceptado un determinado trabajo
enviado por diferentes autores ficticios a un total de 304 revistas,
buena parte de ellas con alto factor de impacto. El contenido científico
de estos trabajos era idéntico y todos ellos contaban conscientemente
con los mismos errores fatales de gran calado que un revisor
AIESAD
I.S.S.N.: 1138-2783
RIED v. 18: 2, 2015, pp 7-22
17
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
competente debería detectar. Los autores ficticios estaban afiliados a
ficticias instituciones africanas. Pues bien, 157 revistas aceptaron el
documento para su publicación, 98 lo rechazaron, 29 fueron sitios de
revistas que podían haber dejado de existir y 20 anunciaban que el
trabajo continuaba en revisión. En fin, naturalmente el artículo no fue
publicado en ninguna revista porque en aquellas en las que había sido
aceptado se remitió un correo en el que se indicaba que durante el
proceso se había descubierto un error fatal que invalidaba totalmente
los resultados de la investigación. En esta línea Marsh, Bonds
y Jayasinghe (2007) afirman que la falta de fiabilidad constituye la
debilidad más importante del proceso de revisión por pares.
Parece que son varios los estudios que muestran que el sistema de
revisión por pares actual no cuenta con suficiente solidez y está sujeto
a sesgo a favor de los grupos de investigación bien establecidos o de
las corrientes y teorías denominadas por ellos como «principales»
(Chandan, 2012). A ello podemos agregar otro hándicap que genera
esta práctica común, el tiempo que transcurre desde la remisión del
original por parte del autor/es hasta que, en caso de ser aceptado el
artículo, es publicado. Ello repercute, sobre todo en algunos campos,
en la posibilidad de obsolescencia de lo investigado y, en todo caso, en
las comunes prisas que los autores muestran para que su trabajo sea
“certificado” con la publicación (Björk y Solomon, 2013).
Además de todo lo indicado, si lo que se pretende es que sólo se
publique aquello que determinadas revistas creen que es lo realmente
relevante, craso error. El artículo rechazado se va a publicar en otra
revista de menor nivel y quien sabe si el trabajo en su momento
rechazado va a alcanzar mayor índice de citas que otros admitidos
en aquella revista. Dicho esto, ¿»impacta» más en el orbe académico
universitario internacional ese artículo mediocre no leído, no citado,
pero publicado en revista reconocida por esas empresas privadas
internacionales, que ese otro excelente, muy leído, muy citado en otros
círculos de diseminación científica, pero publicado «donde no debía»?
Probablemente este último haya tenido un gran impacto social, pero
según parece, no un impacto científico. Y ello porque se afirma que el
artículo publicado donde señalan esos cánones internacionales es el
18
RIED v. 18: 2, 2015, pp 7-22
I.S.S.N.: 1138-2783
AIESAD
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
trabajo sometido realmente a verificación y contraste por parte de la
comunidad científica. Y mucho más, como decía antes, si se publicó
en inglés, lo que puede potenciar el índice de citas (Buela-Casal, 2001)
circunstancia que, lógicamente, no supone mayor calidad de ese
artículo.
Algunos trabajos académicos en abierto, es posible que no cuenten
con el juicio de dos o tres árbitros anónimos, pero sí que han podido
pasar por el juicio, comentario o cita de otros muchos miembros de
la comunidad académica, sobre todo en estos tiempos de nuestra
sociedad digital en la que, a través de la red, estamos bien expuestos
al juicio de otros pares, a la discrepancia con nuestras posturas y
pensamiento académico, al acuerdo, a la profundización sobre lo que
publicamos, a la cita, en fin. Pues eso, sobre otras métricas trataremos
en su momento en otro trabajo.
Más allá de que puedan ir surgiendo esas otras métricas
(altmetrics), y de hecho es así, la revisión por pares externos continúa
manteniéndose como instrumento más apropiado para la pretensión
de la calidad de las publicaciones científicas, pero siempre que se
salvaguarden algunos requisitos tales como la probada competencia
de los árbitros, la transparencia y claridad sobre los estándares de
evaluación, el establecimiento de procedimientos para la evaluación
de los artículos, la distribución de funciones entre revisores y equipo
de edición, la posibilidad de relación fluida entre el autor/es durante el
proceso de evaluación, etc. (Knudson, Morrow y Thomas, 2014).
La RIED, continuará fiel a su compromiso con la calidad de la
investigación y de los trabajos en ella publicados. En esta etapa nueva
se ha elevado considerablemente el listón académico para la aceptación
de artículos, siguiendo los cánones en este trabajo criticados. Pero es
lo que toca si deseamos que nuestra revista alcance poco a poco cotas
más elevadas de impacto científico, sin olvidar el impacto social que
ya tenemos. Para ello hemos reforzado todos los procedimientos de
garantía para una evaluación por pares a la altura de las revistas del
campo, más prestigiosas.
AIESAD
I.S.S.N.: 1138-2783
RIED v. 18: 2, 2015, pp 7-22
19
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
Publicamos en el presente número de RIED un excelente
monográfico sobre los MOOC, propuesta a la que ya hice mención
en el Editorial del número anterior de RIED. Los artículos de este
monográfico se completan con otros trabajos relevantes, siempre
ligados al campo de interés de nuestra revista.
REFERENCIAS BIBLIOGRÁFICAS
Artiles, L. (1995). El artículo científico.
Revista Cubana de Medicina
General Integral, 11 (4).
Björk, B., y Solomon, D. (2013). The
publishing delay in scholarly peerreviewed journals. Journal of
Informetrics, 7 (4), 914-923. doi:
10.1016/j.joi.2013.09.001.
Bohannon, J. (2013). Who’s Afraid
of Peer Review? Science, 342
(6154), 60-65. doi: 10.1126/
science.342.6154.60.
Bornmann, L., y Daniel, H. D.
(2009). The luck of the referee
draw: The effect of exchanging
reviews. Learned Publishing, 22
(2), 117–125. doi: http://dx.doi.
org/10.1087/2009207
Buela-Casal, G. (2001). La Psicología
española
y
su
proyección
internacional. El problema del
criterio: internacional, calidad y
castellano y/o inglés. Papeles del
psicólogo, 79, 53-57. Recuperado de
http://dialnet.unirioja.es/servlet/
oaiart?codigo=876811.
Buela-Casal, G. (2010). Scientific
Journal Impact Indexes and
Indicators
for
Measuring
Researchers’ Performance. Revista
de Psicodidáctica, 15 (1), 3-19.
20
RIED v. 18: 2, 2015, pp 7-22
Recuperado de http://www.ugr.
es/~aepc/articulo/scientific.pdf.
Campanario, J. M. (2002). El sistema
de revisión por expertos (peer
review): muchos problemas y pocas
soluciones. Revista española de
documentación científica, 25 (3),
267-285. doi: 10.3989/redc.2002.
v25.i3.107.
Chandan, K. (2012). Rebound Peer
Review: A Viable Recourse for
Aggrieved Authors? Antioxidants &
Redox Signaling, 16 (4), 293-296.
doi: 10.1089/ars.2011.4424.
Clapham, P. (2005). Publihs or perish.
BioScience, 55 (5), 390 – 391. doi:
http://dx.doi.org/10.1641/00063568(2005)055[0390:POP]2.0.
CO;2.
Craig R. S., y Wheeler, J. (2011).
Enhancing
junior
faculty
research
productivity
through
multiinstitution
collaboration:
Participants’
impressions
of
the school psychology research
collaboration
conference.
Canadian Journal of School
Psychology, 26, 220–240. doi:
10.1177/0829573511413552.
Delgado, E., y Ruiz-Pérez, R. (2009).
La comunicación y edición científica
I.S.S.N.: 1138-2783
AIESAD
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
fundamentos conceptuales. En C.
García Caro, Homenaje a Isabel
de Torres Ramírez: Estudios de
documentación dedicados a su
memoria.
Granada:
Editorial
Universidad de Granada, 131-150.
Ebrahim, N. A., Salehi, H., Embi, M.
A., Habibi, F., Gholizadeh, H.,
Motahar, S. M., y Ordi, A. (2013).
Effective Strategies for Increasing
Citation Frequency. International
Education Studies, 6 (11), 93-99.
Fernández, M. J. (2006). Las referencias
bibliográficas de los artículos
publicados en la Revista Española
de Anestesiología y Reanimación.
Estudio del periodo 1999- 2003.
Revista Española de Anestesiología
y Reanimación, 53, 283-288.
Galán-González, A., y Zych, I. (2011).
Análisis de los criterios de la
Comisión Nacional Evaluadora de
la Actividad Investigadora (CNEAI)
para la concesión de los tramos
de investigación en educación.
Bordón, 63 117-139. Recuperado
de http://recyt.fecyt.es/index.php/
BORDON/article/view/28978.
Gans, J. S., y Shepered, G. B. (1994).
How are the mighty fallen:
Rejected
classic
articles
by
leading economists. Journal of
Economic Perspectives, 8, 165-179.
doi: 10.1257/jep.8.1.165.
Jara, E. (1999). La selección del título
en el artículo científico. Revista
Cubana de Medicina General
Integral, 15 (3), 342-345.
AIESAD
I.S.S.N.: 1138-2783
Knudson, D. V., Morrow, J. R., y Thomas,
J. R. (2014). Advancing Kinesiology
Through Improved Peer Review.
Research Quarterly for Exercise
and Sport, 85 (2), 127-135. doi:
10.1080/02701367.2014.898117.
Marsh, H. W., Bonds, N. W., y
Jayasinghe, U. W. (2007). Peer
review process: Assessments by
applicant-nominated
referees
are biased, inflated, unreliable
and
invalid.
Australian
Psychologist, 42 (1), 33–38. doi:
10.1080/00050060600823275.
Matsuda, P. K., y Tardy, C. M. (2007).
Voice in academic writing: The
rhetorical construction of author
identity in blind manuscript review.
English for Specific Purposes,
26, 235–249. doi: 10.1016/j.
esp.2006.10.001.
Osca-Lluch, J., Civera, C., y Peñaranda,
M. (2009). Consecuencias de
los errores en las referencias
bibliográficas. El caso de la revista
Psicothema. Psicothema, 21 (2),
300-303.
Sternberg, R. J. (2003). There
is no place for hostile review.
International Journal of Clinical
and Health Psychology, 3, 159-161.
Recuperado de http://www.aepc.
es/ijchp/articulos_pdf/ijchp-66.
pdf.
Tavares, M. M. (2011). El peer review
de las revistas científicas en
Humanidades y Ciencias Sociales:
políticas y prácticas editoriales
declaradas.
Revista
Española
RIED v. 18: 2, 2015, pp 7-22
21
l. garcia aretio
publicar (casi exclusivamente) en revistas de impacto
de
Documentación
Científica,
34 (2), 141-164. doi: 10.3989/
redc.2011.2.796.
Torres, D., Cabezas, A., y Jiménez,
E. (2013). Altmetrics: nuevos
indicadores para la comunicación
científica en la Web 2.0. Comunicar,
41, 53-60. doi: http://dx.doi.
org/10.3916/C41-2013-05.
Torres, V., Herrera, R., y Sarduy, L.
(2005). El arbitraje estadístico y
su influencia en la calidad de las
22
RIED v. 18: 2, 2015, pp 7-22
publicaciones científicas. Revista
de la Facultad de Ingeniería Universidad de Tarapacá, 13 (2),
85-90.
Valenzuela, G. (2008). Irregularidades
en la publicación de trabajos
científicos. Anales de la Facultad de
Medicina, 69 (1), 56-58.
I.S.S.N.: 1138-2783
AIESAD
Fly UP