Me ha gustado este vídeo de TedEd sobre la física de tocar la guitarra. En él se resume, desde la vibración de una cuerda a la función del amplificador, todo lo que afecta a la producción del sonido y su percepción. El vídeo dura 5 minutos, así que, entiéndase, es un resumen escueto.
Categoría: Ciencia
Artículos de divulgación científica.
Fraude científico
El Cuaderno de Cultura Científica, uno de los blogs de la Cátedra de Cultura Científica de la UPV/EHU, ha publicado esta semana una muy recomendable serie de artículos escritos por Joaquín Sevilla (blog, Twitter) acerca del fraude científico. ¿Existe el fraude científico? ¿Lo podemos cuantificar? ¿Es grave, doctor? ¿Cuáles son las causas? ¿Qué se puede hacer? Estas y otras preguntas, además de un montón de referencias con las que se puede seguir profundizando en el tema, en estos cinco artículos:
¿Por qué no se publican los resultados negativos en ciencia?
Preguntaba @InerciaCreativa en Twitter lo siguiente:
.@HelenaMatute Si la ciencia secreta no es ciencia, ¿por qué apenas se publican resultados negativos? @Uhandrea
— Jose Cuesta (@InerciaCreativa) July 10, 2015
A lo que yo replicaba:
@InerciaCreativa Los resultados negativos no son secretos: simplemente no se valoran. @HelenaMatute @Uhandrea
— Iñaki Úcar (@Enchufa2) July 10, 2015
El detalle es fundamental y, si se desea comprender por qué los resultados negativos no se publican, necesario. No es que sea secreto: no es que yo me guarde los resultados negativos para mí; es que, si los envío a una publicación, se rechazan.
Antes de comenzar, para los no familiarizados con esto, cabe preguntarse qué son los resultados negativos y si son importantes. Un resultado negativo sería, por ejemplo, que «tal vacuna que utiliza tal vector y preparada de tal forma no funciona»; o «la técnica x para confinar protones en un acelerador no funciona». ¿Son importantes? Sin duda. Algunos argumentan que tanto como los resultados positivos (i.e., una vacuna que sí funciona), pero yo no estoy de acuerdo por la sencilla razón de que hay millones de maneras de hacer las cosas mal y, en el mejor de los casos, unas pocas de hacerlas bien. Ahora bien, un equipo científico puede llegar a un resultado negativo siguiendo una vía en principio muy lógica y prometedora y que, por tanto, a otro equipo en otro lugar del mundo se le puede ocurrir explorar en algún momento. Dado que hacer ciencia es caro, la publicación de resultados negativos tiene el potencial de ahorrar muchísimo dinero.
Entonces, ¿por qué no se publican? La versión corta es porque el sistema de valoración de la actividad científica lo desincentiva, al igual que desincentiva otras cosas deseables en las que no voy a entrar en este artículo. Pero para entender el porqué, hay que entender primero cómo funciona este sistema que hemos erigido, uno de los demonios de la ciencia moderna.
El currículo de un científico —al contrario del de cualquier otro profesional, que cuanto más sintético, mejor—, dicho burdamente, se valora al peso: si tiene treinta páginas, mejor que veinte. Dentro de ese peso, destaca el número de publicaciones en revistas científicas importantes. Para decidir qué revistas son importantes, por consenso se toma la clasificación que todos los años elabora la empresa Thomson Reuters. Las revistas reciben un puesto en función de una métrica llamada factor de impacto, y dicha métrica depende fundamentalmente del número de citas que reciben sus artículos.
Por tanto, los científicos quieren aparecer en las revistas importantes y las revistas quieren ser importantes para que los científicos quieran publicar en ellas. Así las cosas, las revistas buscan —y los científicos preparan— artículos de impacto, artículos citables. Y un resultado negativo es muy informativo, pero no es citable. Un artículo podrá decir «hemos utilizado [esta técnica] para producir tal material», pero nunca dirá «no hemos utilizado [esta técnica] ni [esta] ni [esta] ni [esta], porque se reportó que no funcionaban». No tiene sentido.
Desde luego, yo no tengo la solución a este problema, pero la herramienta es clara: de media, lo que se incentiva sucede y lo que se desincentiva, no. En esta y en todas las actividades humanas.
Los reales (y bonitos) fotones

Es muy bonito (muy muy bonito) plantarse con un papel y una hoja e intentar dirigir con números el lugar donde debe colocarse la luz.
—¡Aquí las ondas se anulan! ¡Por allá giran en círculos! Tráiganme 3,4 kilos de fotones, la trifracción de algún símbolo griego y la junta de la trócola, amén.
Pero lo más bonito (joder, ¡tan bonito!) es que luego pillas un láser, un cacharro hecho de «realidad», con su consumo ineficiente y sus manchas de tomate de la cena; lo enfocas contra una pared, lo pasas por un agujerillo y ¡el muy real hace lo que decía en el papel!
Es emocionante.
Estadística para todos: prevalencia e incidencia
De entre todos los conceptos que se emplean en epidemiología, hay dos medidas básicas que describen el impacto de una enfermedad: prevalencia e incidencia (incidencia acumulada, para ser más precisos, pero usaremos el término incidencia por simplicidad). Ambas son medidas de frecuencia, esto es, el porcentaje de casos afectados sobre un grupo. Vamos a analizar cada una de ellas mediante ejemplos gráficos.
Prevalencia
La prevalencia es el número de afectados por una enfermedad dividido por el número total de personas en la población o grupo de interés en un momento determinado. Pongamos que tenemos una población de 116 bolitas, de las cuales, hay 16 verdes y 100 azules. Las bolitas «enfermas» se nos van a volver rojas.

Como vemos, tenemos 14 bolitas enfermas en total, de las cuales, 8 son azules (57.14 %) y 6 son verdes (42.86 %). La prevalencia en el total de la población es 14 enfermas entre 116 bolitas, 12.07 %. La prevalencia en el grupo de bolitas azules es 8 entre 100, 8 %, mientras que en el grupo de bolitas verdes es de 6 entre 16, 37.5 %.
Esto quiere decir que, si escoges una bolita al azar y no puedes ver el color, la probabilidad de que esté enferma es del 12.07 %. Sin embargo, si puedes ver el color, tienes más información: si la bolita es azul, la probabilidad de que esté enferma ahora es del 8 %, mientras que si es verde, la probabilidad pasa a ser del 37.5 %.
Incidencia
La incidencia es el número de nuevos afectados en un intervalo de tiempo dividido por el número de individuos sanos de una población o grupo de interés. Retomando el ejemplo anterior, supongamos que pasa un año y aparecen 2 nuevos casos en las bolitas azules y 1 nuevo caso en las verdes.

Tenemos que, de cada 3 nuevos enfermos, 2 son azules (el 66.67 %) frente a 1 verde. La incidencia el total de la población es de 3 entre 92+10, 2.9 %. Sin embargo, la incidencia en el caso de las bolitas azules es de 2 entre 92, 2.17 %, mientras que en las verdes es de 1 entre 10, 10 %.
Esto quiere decir que, si escoges una bolita sana al azar y no puedes ver el color, la probabilidad de que enferme en el próximo año es del 2.9 %. Sin embargo, si puedes ver el color, de nuevo, tienes más información: si la bolita es azul, la probabilidad de que enferme ahora es del 2.17 %, mientras que si es verde, la probabilidad pasa a ser del 10 %.
Las bolitas verdes tienen mayor tasa de contagio, el número de casos nuevos crece a más velocidad, a pesar de que, en números absolutos, hay más nuevos casos azules que verdes. La incidencia de las bolitas azules es muy parecida a la incidencia total porque las bolitas azules son amplia mayoría. Para que las bolitas azules tuvieran una tasa de contagio similar a la de las verdes, deberían haber aparecido unos 9 casos nuevos en lugar de solo 2.
Conclusiones
En nuestro ejemplo, conocer el color de las bolitas nos aporta mucha información. Nos dice que algo está sucediendo en las bolitas verdes porque sus números no cuadran: están muy por encima de los de la población general.