Preguntaba @InerciaCreativa en Twitter lo siguiente:
.@HelenaMatute Si la ciencia secreta no es ciencia, ¿por qué apenas se publican resultados negativos? @Uhandrea
— Jose Cuesta (@InerciaCreativa) July 10, 2015
A lo que yo replicaba:
@InerciaCreativa Los resultados negativos no son secretos: simplemente no se valoran. @HelenaMatute @Uhandrea
— Iñaki Úcar (@Enchufa2) July 10, 2015
El detalle es fundamental y, si se desea comprender por qué los resultados negativos no se publican, necesario. No es que sea secreto: no es que yo me guarde los resultados negativos para mí; es que, si los envío a una publicación, se rechazan.
Antes de comenzar, para los no familiarizados con esto, cabe preguntarse qué son los resultados negativos y si son importantes. Un resultado negativo sería, por ejemplo, que «tal vacuna que utiliza tal vector y preparada de tal forma no funciona»; o «la técnica x para confinar protones en un acelerador no funciona». ¿Son importantes? Sin duda. Algunos argumentan que tanto como los resultados positivos (i.e., una vacuna que sí funciona), pero yo no estoy de acuerdo por la sencilla razón de que hay millones de maneras de hacer las cosas mal y, en el mejor de los casos, unas pocas de hacerlas bien. Ahora bien, un equipo científico puede llegar a un resultado negativo siguiendo una vía en principio muy lógica y prometedora y que, por tanto, a otro equipo en otro lugar del mundo se le puede ocurrir explorar en algún momento. Dado que hacer ciencia es caro, la publicación de resultados negativos tiene el potencial de ahorrar muchísimo dinero.
Entonces, ¿por qué no se publican? La versión corta es porque el sistema de valoración de la actividad científica lo desincentiva, al igual que desincentiva otras cosas deseables en las que no voy a entrar en este artículo. Pero para entender el porqué, hay que entender primero cómo funciona este sistema que hemos erigido, uno de los demonios de la ciencia moderna.
El currículo de un científico —al contrario del de cualquier otro profesional, que cuanto más sintético, mejor—, dicho burdamente, se valora al peso: si tiene treinta páginas, mejor que veinte. Dentro de ese peso, destaca el número de publicaciones en revistas científicas importantes. Para decidir qué revistas son importantes, por consenso se toma la clasificación que todos los años elabora la empresa Thomson Reuters. Las revistas reciben un puesto en función de una métrica llamada factor de impacto, y dicha métrica depende fundamentalmente del número de citas que reciben sus artículos.
Por tanto, los científicos quieren aparecer en las revistas importantes y las revistas quieren ser importantes para que los científicos quieran publicar en ellas. Así las cosas, las revistas buscan —y los científicos preparan— artículos de impacto, artículos citables. Y un resultado negativo es muy informativo, pero no es citable. Un artículo podrá decir «hemos utilizado [esta técnica] para producir tal material», pero nunca dirá «no hemos utilizado [esta técnica] ni [esta] ni [esta] ni [esta], porque se reportó que no funcionaban». No tiene sentido.
Desde luego, yo no tengo la solución a este problema, pero la herramienta es clara: de media, lo que se incentiva sucede y lo que se desincentiva, no. En esta y en todas las actividades humanas.