Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta ciencia. Mostrar todas las entradas

domingo, 22 de abril de 2018

China paga cash a sus investigadores por publicar en Citation Index

La verdad sobre la política de dinero en efectivo por publicación de China

El primer estudio de los pagos a científicos chinos por su publicación en revistas de alto impacto tiene serias implicaciones para el futuro de la investigación
por Emerging Technology del arXiv


Durante muchos años, circularon rumores de que los científicos chinos son recompensados ​​financieramente cada vez que sus artículos científicos se publican en revistas de renombre. Al principio, esto causó una extraña sorpresa entre los científicos occidentales, para quienes este tipo de recompensa financiera es anatema. Para ellos, la ciencia es venerada como una búsqueda de la verdad que no se ve afectada por el interés propio.

Pero a medida que el número de artículos publicados por científicos chinos ha comenzado a dispararse, estas recompensas financieras han planteado preguntas más serias sobre la credibilidad del trabajo publicado con este tipo de incentivo y la integridad de la ciencia china en general.

En el corazón de este debate hay una pregunta interesante: ¿cuánto pagan los científicos chinos por su publicación en las principales revistas?



El monto promedio de las universidades chinas pagadas por un trabajo publicado en revistas seleccionadas entre 2008 y 2016

Hoy recibimos una respuesta gracias al trabajo de Wei Quan en la Universidad de Wuhan, Bikun Chen en la Universidad de Ciencia y Tecnología de Nanjing y Fei Shu en la Universidad McGill en Montreal.

Estos tipos han estudiado los incentivos financieros ofrecidos por las 100 mejores universidades de China y han extraído esos datos para buscar tendencias interesantes. Dicen que los incentivos de efectivo por publicación son comunes y que los científicos que publican en las principales revistas occidentales pueden ganar más de $ 100,000 por papel. Además, ya hay señales preocupantes de que estas recompensas financieras están desviando el proceso de la ciencia en China.

China tiene más de 1,000 universidades. Pero en la década de 1990 comenzó un programa llamado Proyecto 211 para convertir a 100 de ellos en instituciones de clase mundial. "Eventualmente, 116 universidades fueron admitidas en el Proyecto 211, formando un grupo élite de universidades que ocupan el 70% de los fondos nacionales de investigación y supervisan el 80% de los estudiantes de doctorado", dicen Wei y compañía.

En 1998, China comenzó otro programa llamado Proyecto 985 para crear el equivalente chino de las universidades de la Ivy League de los Estados Unidos extraídas del Proyecto 211. El Proyecto 985 ahora cuenta con 39 universidades, que reciben incluso más fondos.

El resultado es un sistema universitario de tres niveles que consta de 39 instituciones en el nivel superior, 73 universidades en el nivel 2 y más de 1.000 universidades en el nivel 3.

Wei y compañía dicen que la primera política de efectivo por publicación fue lanzada por el Departamento de Física en la Universidad de Nanjing alrededor de 1990. Inicialmente, los investigadores recibieron $ 25 por cada artículo publicado, y para mediados de la década de 1990 esto había aumentado hasta $ 120.

Esta política tuvo un gran impacto. Después de que comenzó este sistema de recompensas, la Universidad de Nanjing encabezó la lista de universidades chinas que publicaron la mayor cantidad de artículos en revistas indexadas por el servicio Web of Science durante siete años consecutivos. Así que no pasó mucho tiempo para que otras universidades siguieran su ejemplo.


Muchas universidades publican sus políticas de efectivo por publicación. Así que Wei y compañía usaron el motor de búsqueda chino Baidu para encontrar estos documentos en los sitios web de 100 universidades: 25 en el nivel 1, 33 en el nivel 2 y 42 en el nivel 3.

Esta no es una estrategia de muestreo ideal, porque muchas universidades mantienen sus políticas de recompensa en secreto, por lo que el muestreo se auto-selecciona de ciertas maneras.

Sin embargo, es la primera vez que alguien intenta examinar sistemáticamente el paisaje de recompensas en efectivo para los científicos. Wei y examina cómo las recompensas varían con el factor de impacto de la revista y también cómo han aumentado con el tiempo.

Las revistas Science y Nature tienen, con mucho, los factores de mayor impacto, y las recompensas por la publicación son, por consiguiente, las más altas. Wei y compañía dicen que en 2016 la recompensa promedio por la publicación de un solo periódico en estas revistas fue de $ 44,000 y el pago más alto fue de $ 165,000.

Es una cantidad significativa en un país donde el salario promedio de un profesor universitario es de solo $ 8,600.

Los pagos por publicación en revistas con un factor de impacto más bajo fueron significativamente menores. El pago promedio para su publicación en Actas de la Academia Nacional de Ciencias fue de $ 3,513, en el Diario de la Asociación de Ciencia y Tecnología de la Información $ 2,488, y en PLoS One $ 984.

"El valor de la recompensa por un trabajo de JASIST equivale al salario de un año para un profesor recién contratado, mientras que el premio en efectivo por un artículo de Nature o Science es hasta 20 veces el salario anual promedio de un profesor universitario", dicen Wei y compañía.

Eso comenzó a tener un impacto en el comportamiento de algunos científicos. Wei y compañía informan que el plagio, la deshonestidad académica, los trabajos escritos con fantasmas y los falsos escándalos de revisión por pares están en aumento en China, al igual que la cantidad de errores. "La cantidad de correcciones en papel creadas por académicos chinos aumentó de 2 en 1996 a 1.234 en 2016, un máximo histórico", dicen.

Como un ejemplo del cambio de comportamiento, Wei y Co informan el caso de un científico de materiales en la Universidad de Heilongjiang que publicó 279 artículos en una sola revista, Acta Crystallographica Sección E. Entre 2004 y 2009, este científico recibió más de la mitad de las recompensas entregadas fuera por la universidad.

Eso ciertamente sugiere un espíritu emprendedor, pero que está impulsado por recompensas a corto plazo en lugar de objetivos de investigación a largo plazo.

El enfoque en resultados positivos a corto plazo es una preocupación particular. En los últimos años, se ha descubierto que más de la mitad de la investigación biomédica no se puede reproducir, un hallazgo que pone en tela de juicio el proceso de la ciencia que lo respalda.

Eso no es un problema de ninguna manera limitado a China. Pero la práctica de pagar por la publicación probablemente exacerbe la situación.

Los datos en este estudio son publicados por universidades chinas, pero hay rumores de pagos significativamente más altos que no se publican. Eso no puede ser bueno para el progreso.

Por supuesto, los científicos occidentales no pueden afirmar que están libres de influencias externas. La búsqueda de la "verdad" no es tan pura como a muchos les gustaría creer, pero esta práctica podría empañarla aún más. Si el éxito de la publicación se puede mejorar mediante el pago en efectivo a los científicos, ¿cuánto tiempo debe esperar para que las universidades de otros países sigan el ejemplo?

Una forma de combatir esta tendencia es con transparencia. Muchos científicos declaran sus intereses financieros al publicar investigaciones. Seguramente las revistas deberían tener científicos chinos, de hecho cualquier científico, al mismo estándar, pidiéndoles que declaren cualquier pago que reciban para su publicación.


Ref: arxiv.org/abs/1707.01162 : Publish Or Impoverish: An Investigation Of The Monetary Reward System Of Science In China (1999-2016)

jueves, 30 de marzo de 2017

La economía no es una ciencia pura

No debemos pretender que la economía es una ciencia pura



Es suficiente para arrancarte el pelo. (Reuters / Alex Grimm)


Graham White | Quartz

El primer ministro de Australia, Malcolm Turnbull, comentó recientemente que cuando se trata del suministro de energía de Australia: The Conversation
"Los políticos han puesto la ideología y la política por delante de la ingeniería y la economía".
No es raro que un político acuse a otros políticos de ser servil a la ideología en algún asunto. Sin embargo, esta acusación en términos de una elección entre "la economía" o "justa ideología" es problemática.

Debemos ser muy escépticos de las afirmaciones de que los pronunciamientos de los economistas sobre los problemas económicos del mundo real están por encima de cualquier influencia ideológica. Esto a su vez podría permitir una evaluación más sobria de lo que la economía puede y no puede ofrecer.
Hay una creencia -aún presente en la profesión de economía y que todavía encuentra su camino en la educación de los estudiantes de economía de pregrado- que la economía posee una caja de herramientas que son libres de valores o ideológicamente incontaminados. Y eso de alguna manera esto permite declaraciones económicas sobre problemas del mundo real que están libres de ideología.
La idea persiste en parte porque sirve a algunos, para algunos, de proporcionar un punto de referencia para medir el "progreso científico" de la economía como una disciplina intelectual.
Pero las cosas son menos claras cuando se mira más de cerca cómo se utiliza la caja de herramientas.
Tomemos la proposición, por ejemplo, de que los precios más bajos de bienes y servicios beneficiarían al consumidor, utilizando una cierta medida de bienestar del consumidor. O que el aumento de la competencia en determinadas condiciones conduciría a precios más bajos.
Dejando a un lado el hecho de que la elección de la medida del bienestar del consumidor no puede ser por sí misma completamente intacta por la ideología, el uso de estas proposiciones para diagnosticar los problemas del mundo real lleva inevitablemente a la ideología a jugar.
Por ejemplo, justificar una política de promoción de "eficiencias" en la producción como un medio para lograr precios más bajos, que también podría requerir que las personas pierdan sus empleos, justificaría un razonamiento adicional sobre los objetivos de la sociedad que sustentan la producción y distribución de su riqueza material.
Este es especialmente el caso en el que la caja de herramientas económicas no apoya la creencia de que los mecanismos de mercado entrarían en acción automáticamente para proporcionar empleo a los trabajadores desplazados. La prescripción política en este caso es inevitablemente cargada ideológicamente.
La caja de herramientas también puede contener, por ejemplo, proposiciones acerca de cómo están conectados el tamaño del déficit presupuestario del gobierno federal, la velocidad con que la economía está creciendo y el camino de la deuda pública a lo largo del tiempo.
Transformar tales proposiciones en discusiones significativas sobre la política económica, particularmente sobre el gasto gubernamental, los impuestos o los desembolsos de bienestar, requiere proposiciones adicionales que probablemente estén condicionadas por la ideología. Esto incluye la cantidad de deuda pública con la que debe vivir un país y, más fundamentalmente, en qué actividades deben participar los gobiernos.
Para el economista Maurice Dobb del siglo XX, la ideología entra en el cuadro tan pronto como ponemos la caja de herramientas a trabajar.
En otras palabras, un conjunto de proposiciones económicas formales sólo podría ser considerado inmune a la ideología antes de ser utilizado como un medio para iluminar los problemas del mundo real. Pero sin duda, como Dobb sugiere, en esta etapa la caja de herramientas tiene poco contenido económico.
Pero tan pronto como estas proposiciones se utilizan para inferir la causa y el efecto, ya su vez forman una base para la prescripción de la política, la ideología entra inevitablemente en el cuadro.
De hecho, para algunos, incluso las decisiones acerca de qué herramientas entrar en la caja de herramientas no están completamente libres de la ideología.
El punto de todo esto no es que debemos vomitar nuestras armas en la desesperación por la influencia de la ideología en la economía. Para citar al economista e historiador austríaco del pensamiento económico Joseph Schumpeter:
"La explicación, por más correcta que sea, de las razones por las cuales un hombre dice lo que dice no nos dice nada acerca de si es verdadera o falsa".
Economía e ideología se entrelazan. Esto sirve como recordatorio de que el uso de proposiciones económicas para el diagnóstico y la prescripción de políticas puede verse afectado por una visión históricamente condicionada de cómo son las cosas y "la forma en que deseamos verlas" (tomando como ejemplo la terminología de Schumpeter).

lunes, 7 de noviembre de 2016

Las malas formas de la ciencia que persisten

Por qué la ciencia mala persiste
Incentivo malus

Los métodos científicos deficientes pueden ser hereditarios



En 1962, Jacob Cohen, psicólogo de la Universidad de Nueva York, informó de un hallazgo alarmante. Había analizado 70 artículos publicados en el Journal of Anormal and Social Psychology y había calculado su "potencia" estadística (una estimación matemática de la probabilidad de que un experimento detectara un efecto real). Él consideró que la mayoría de los estudios que miró realmente habría detectado los efectos que sus autores estaban buscando sólo alrededor del 20% del tiempo, sin embargo, de hecho, casi todos reportaron resultados significativos. Los científicos, Cohen supuso, no estaban reportando su infructuosa investigación. No hay sorpresa, tal vez. Pero su hallazgo también sugirió que algunos de los papeles estaban reportando falsos positivos, en otras palabras, ruido que parecía datos. Instó a los investigadores a aumentar el poder de sus estudios mediante el aumento del número de temas en sus experimentos.
Viento el reloj hacia adelante medio siglo y poco ha cambiado. Dos investigadores, Paul Smaldino, de la Universidad de California, Merced, y Richard McElreath, del Instituto Max Planck de Antropología Evolutiva, de Leipzig, muestran que los estudios publicados en psicología, neurociencia Y la medicina son poco más poderosos que en los días de Cohen.
También ofrecen una explicación de por qué los científicos siguen publicando estudios tan pobres. No sólo son métodos desagradables que parecen producir resultados perpetuados porque aquellos que publican prodigiosamente prosperan, algo que fácilmente podría haber sido predicho. Pero, preocupantemente, el proceso de replicación, mediante el cual se prueban de nuevo los resultados publicados, es incapaz de corregir la situación, no importa cuán rigurosamente se persiga.

La preservación de los lugares favorecidos

En primer lugar, el Dr. Smaldino y el Dr. McElreath calcularon que el poder promedio de los documentos seleccionados de 44 revisiones publicadas entre 1960 y 2011 fue de alrededor del 24%. Esto es apenas más alto que Cohen informó, a pesar de repetidos llamamientos en la literatura científica para que los investigadores hagan mejor. La pareja decidió aplicar los métodos de la ciencia a la pregunta de por qué sucedió así, al modelar la forma en que las instituciones y prácticas científicas se reproducen y se propagan, para ver si podrían determinar lo que está pasando.

Se centraron en particular en los incentivos dentro de la ciencia que podrían llevar incluso a investigadores honestos a producir mal trabajo involuntariamente. Para ello, construyeron un modelo evolutivo de computadora en el que 100 laboratorios compitieron por "pagos" que representan prestigio o financiamiento que resultan de publicaciones. Utilizaron el volumen de publicaciones para calcular estos beneficios porque la longitud del CV de un investigador es un proxy conocido del éxito profesional. Los laboratorios que obtuvieron más beneficios fueron más propensos a transmitir sus métodos a otros laboratorios nuevos (su "progenie").

Algunos laboratorios fueron más capaces de detectar nuevos resultados (y, por tanto, obtener mejores resultados) que otros. Sin embargo, estos laboratorios también tendían a producir más falsos positivos: sus métodos eran buenos para detectar señales en datos ruidosos, pero también, como sugirió Cohen, a menudo confundían el ruido con una señal. Los laboratorios más completos tomaron tiempo para descartar estos falsos positivos, pero eso frenó la velocidad a la que podrían probar nuevas hipótesis. Esto, a su vez, significaba que publicaban menos artículos.

En cada ciclo de "reproducción", todos los laboratorios del modelo realizaron y publicaron sus experimentos. Luego uno -el más antiguo de un subconjunto seleccionado al azar- "murió" y fue retirado del modelo. A continuación, se permitió que el laboratorio con la puntuación más alta de otro grupo seleccionado al azar se reprodujera, creando un nuevo laboratorio con una aptitud similar para crear ciencia real o falsa.

Los lectores de ojos agudos notarán que este proceso es similar al de la selección natural, como describe Charles Darwin, en "The Origin of Species". ¡Y lo! (Y nada sorprendente), cuando el Dr. Smaldino y el Dr. McElreath realizaron su simulación, encontraron que los laboratorios que empleaban el menor esfuerzo para eliminar la ciencia basura prosperaron y difundieron sus métodos en toda la comunidad científica virtual.

Su siguiente resultado, sin embargo, fue sorprendente. Aunque más a menudo se honra en el incumplimiento que en la ejecución, el proceso de replicar el trabajo de la gente en otros laboratorios se supone que es una de las cosas que mantiene la ciencia en la recta y estrecha. Pero el modelo de los dos investigadores sugiere que tal vez no lo haga, incluso en principio.

La replicación se ha convertido recientemente en toda la rabia en la psicología. En 2015, por ejemplo, más de 200 investigadores en el campo repitieron 100 estudios publicados para ver si los resultados de estos podrían ser reproducidos (sólo el 36% podría). Por lo tanto, el Dr. Smaldino y el Dr. McElreath modificaron su modelo para simular los efectos de la replicación, seleccionando al azar experimentos de la literatura "publicada" para repetirlos.

Una replicación exitosa aumentaría la reputación del laboratorio que publicó el resultado original. Si no se reproduce, se aplicará una penalización. Preocupantemente, los malos métodos aún ganaban, aunque con mayor lentitud. Esto fue cierto incluso en la versión más punitiva del modelo, en la que los laboratorios recibieron una multa 100 veces el valor de la "compensación" original por un resultado que no se replicó, y las tasas de replicación fueron altas (la mitad de todos los resultados fueron Sujeto a esfuerzos de replicación).

La conclusión de los investigadores es, por lo tanto, que cuando la capacidad de publicar copiosamente en las revistas determina el éxito de un laboratorio, entonces "los laboratorios de alto rendimiento serán siempre aquellos que son capaces de cortar esquinas" -y eso es independientemente del proceso de replicación supuestamente correctivo.

En última instancia, por lo tanto, la manera de acabar con la proliferación de las malas ciencias no es engañar a las personas para que se comporten mejor, o incluso para alentar la replicación, sino para que las universidades y los organismos de financiación dejen de recompensar a los investigadores que publican copiosamente sobre los que publican menos, - Documentos de calidad. Esto, admite el Dr. Smaldino, es más fácil decirlo que hacerlo. Sin embargo, su modelo demuestra ampliamente las consecuencias para la ciencia de no hacerlo.

viernes, 8 de julio de 2016

Los microeconomistas hacen ciencia, en serio

Lejos de ser la ciencia triste
Los microeconomistas reclamando que están haciendo ciencia de verdad puede ser que tengan razón
The Economist

La ciencia funciona por dos razones. En primer lugar, sus resultados se basan en experimentos de extracción: secretos de la madre naturaleza por preguntarle directamente, en lugar de filosofar sillón. Y una cultura de apertura y la replicación significa que los científicos son vigiladas por sus pares. Los artículos científicos incluyen secciones sobre métodos para que otros puedan repetir los experimentos y comprobar que llegan a las mismas conclusiones.

Eso, al menos, es la teoría. En la práctica, comprobando los resultados de edad es mucho menos buena para la carrera de un científico de la publicación de emocionantes nuevos. Sin estos controles, los resultados poco fiables colarse en la literatura. En los últimos años, la medicina, la psicología y la genética de todo se han puesto bajo el microscopio y hallado falto. Un análisis de 100 artículos de psicología, publicado el año pasado, por ejemplo, fue capaz de replicar sólo el 36% de sus hallazgos. Y un estudio realizado en 2012 por Amgen, una compañía farmacéutica estadounidense, podría replicar sólo el 11% de los 53 documentos que examinó.

Ahora es el turno de la economía. A pesar de que la augusta disciplina fue fundada en el siglo 18 por Adam Smith (en la foto) y sus contemporáneos, es sólo en los últimos decenios que sus practicantes (algunos de ellos, de todos modos) han llegado a las conclusiones que las ciencias naturales alcanzaron siglos hace: experimentos que podrían ser la mejor manera de probar sus teorías sobre cómo funciona el mundo. Una serie de resultados en "microeconomía", que estudia el comportamiento de los individuos, se ha sugerido que el Homo sapiens no es siempre Homo economicus, el paradigma de la racionalidad de sangre fría asumida por muchos modelos económicos formales.

Pero a medida que la economía adopta los procedimientos experimentales de las ciencias naturales, sino que también puede sufrir de sus inconvenientes. En un artículo recientemente publicado en Science, Colin Camerer del Instituto de Tecnología de California y un grupo de colegas de universidades de todo el mundo decidieron comprobar. Se repitieron los experimentos de laboratorio 18 en economía cuyos resultados se han publicado en el American Economic Review y el Quarterly Journal of Economics entre 2011 y 2014.

Para 11 de los 18 documentos (es decir, el 61% de ellos) Dr. Camerer y sus colegas encontraron un efecto bastante similar a lo que habían informado a los autores originales. Eso es por debajo de la tasa de replicación del 92% que habrían esperado tenían todos los estudios originales han sido tan robusto como estadísticamente los autores afirmaban, pero para los estándares de la medicina, la psicología y la genética todavía es impresionante.

Una teoría expuesta por el Dr. Camerer y sus colegas para explicar esta tasa de éxito superior es que la economía todavía puede beneficiarse del celo de los recién convertidos. Señalan que, cuando el campo estaba en su infancia, los economistas experimentales estaban interesados ​​en que los demás deben adoptar sus métodos. A tal fin, persuadieron economía revistas dedicar mucho más espacio para la impresión de información sobre métodos, incluyendo instrucciones explícitas y conjuntos de datos en bruto, de revistas de ciencias haría normalmente.

Esto, los investigadores estiman, puede haber ayudado a establecer una cultura de rigor inusual y apertura. Cualquiera que sea la causa, sí sugiere una cosa. Los científicos naturales pueden tener que dejar de burlarse de sus hermanos Economist, y reconocer que la ciencia triste es, en efecto, una ciencia, después de todo.

sábado, 31 de enero de 2015

Ciencia y trampa: Distinguir la paja del trigo

"Un estudio científico demuestra que…". ¿Seguro?

No crea todo lo que lee. Las trampas para forjar un titular engañoso son recurrentes. Consejos para detectarlas


El País



“Comer chocolate adelgaza”“La sacarina favorece la diabetes”.“Descubren vacuna contra el sida en España”“Un estudio demuestra que las mujeres mayores de 25 años no atraen a los hombres”. Son titulares reales de medios de comunicación que se hacían eco de investigaciones que, supuestamente, demostraban estas afirmaciones. Pero ni todos los titulares reflejan la realidad de los estudios ni todos ellos deben ser creídos a pies juntillas.
La revista Science publicó hace un año 20 consejos para entender correctamente las afirmaciones científicas, que el Cuaderno de Cultura Científica adaptó posteriormente para interpretar resultados y publicaciones de este ámbito. Pero la mayoría de las personas no se detiene a indagar en profundidad y reciben este tipo de noticias a través de grandes medios de masas y de Internet, los cuales, en ocasiones, reproducen estudios poco rigurosos o lo hacen de forma sesgada. Antes de asumir como verdad lo que nos llega por estas vías es muy recomendable tener en cuenta las siguientes consideraciones.

Titulares simplificadores


Hay que tener en cuenta que no basta un estudio aislado para darle la vuelta a un conocimiento que ha ido asentándose durante años
Los titulares tienden a simplificar la realidad y a intentar llamar la atención del lector. Esto a veces va en menoscabo del rigor. Un artículo puede explicar muy bien en qué consiste un estudio y dar muchos detalles, pero quizás su título induce a una conclusión demasiado contundente, incluso errónea. Así que conviene leer el texto entero de un artículo antes de hacerse una opinión sobre algo. También sucede que las propias piezas periodísticas (ya sean escritas o audiovisuales) tienden a simplificar los conceptos para hacerlos accesibles y atractivos, lo que en ocasiones deja en el camino matices que pueden ser muy importantes. Así que echar un vistazo al estudio original es siempre una buena opción.

Dónde está publicado

Un estudio puede ser igual de verdadero si lo publica un pequeño blog o el The New York Times. Pero si algo muy extraordinario está en el primero y no en el segundo, habría que sospechar. Y lo lógico es que la desconfianza crezca de forma directamente proporcional a lo sorprendente del estudio. Es raro que una pequeña web sea la única que consiga la noticia científica que cambiará la evolución de la humanidad. De hecho, ni siquiera los grandes medios suelen publicar primicias de descubrimientos científicos. Al contrario que los políticos, cuando un investigador completa un estudio, no se suele dirigir a la prensa para difundirlo directamente. Y convendría ser escéptico si lo hace, como advierte Robert L. Park en su libro Ciencia o vudú (editado por Grijalbo), puesto que es probable que quiera sacar un rédito comercial a un hallazgo dudoso.

Su origen

¿Dónde acude el científico para dar a conocer su descubrimiento? Normalmente, antes de llegar a los medios generalistas de comunicación, un estudio será publicado en una revista científica especializada que debe ser citada en la información. No son medios tradicionales con periodistas, sino con científicos que examinan que el estudio en cuestión se haya ejecutado de forma adecuada y sea certero. Tampoco todas estas publicaciones tienen la misma fiabilidad. Una buena forma de medirla es el índice de impacto, que se basa en el número de ocasiones que los estudios de una revista son citados en determinadas publicaciones. Nature, Science y The British Medical Journal son algunas de las más prestigiosas en sus campos. Pero tampoco resultan infalibles. Uno de los errores más sonados ocurrió en 1998, con la publicación en The Lancet —una de las más reconocidas en medicina— de un estudio que sugería que la vacuna de la triple vírica causaba autismo. Con el tiempo se descubrió que se trataba de una estafa y la revista lo retiró, pero el daño causado ha sido tremendo y todavía hay quien cree en esta mentira. Además, últimamente se han oído algunas críticas de científicos a las revistas especializadas por publicar los artículos más llamativos, pero no necesariamente los mejores, como denunció el Premio Nobel de Medicina Randy Schekman. Sin embargo, hoy por hoy existen pocas alternativas fiables a estas publicaciones, así que las de más renombre siguen siendo la mejor referencia para los medios generalistas y especializados, ya que los trabajos fraudulentos o dudosos que publican son minoría.

Correlaciones engañosas

Hace un par de años muchos medios publicaban que se había demostrado que el chocolate adelgaza. Era fruto de un estudio con 1.000 personas publicado en la revista Archives of Internal Medicine.¿Pero es realmente así? Entre quienes participaron en el experimento, efectivamente, los que tomaban cantidades moderadas de chocolate tendían a bajar su masa corporal, incluso con menos actividad física. Pero el propio documento asumía que no se podía establecer una relación de causa-efecto, y que podían influir factores como que quien está adelgazando se recompense a sí mismo comiendo este alimento de vez en cuando. Las conclusiones de la investigación apuntaban a que son necesarios estudios más amplios para determinar si existe una causalidad entre comer chocolate y adelgazar. Pero esto es algo que no alcanza a los titulares y, muchas veces, tampoco a las informaciones que nos llegan. Hay otra correlación curiosa con el chocolate: los países con más consumo son los que generan más premios Nobel. De nuevo, parece muy arriesgado establecer una causalidad entre ambos factores. Habría que estudiar qué otros influyen, como, por ejemplo, que en los territorios con más tradición chocolatera haya mejores universidades, tras lo cual también habría que preguntarse (e investigar) el porqué.


"¿Cómo puede ser eso verdad?".

Contradicen lo que sabemos

El caso del chocolate es uno de los que contradicen lo que sabemos. Es un alimento con grasas y azúcar, sustancias que teóricamente engordan. Más allá de otras que pueda contener, como antioxidantes que hipotéticamente influyan en el metabolismo, el hecho de que el resultado sea el contrario de lo que siempre se ha estudiado con respecto al chocolate es, cuando menos, llamativo. Que un estudio contradiga los conocimientos que tenemos de algo no quiere decir necesariamente que sea falso: en ciencia se realizan nuevos descubrimientos que contradicen el saber anterior. Pero sí conviene tomar con muchas reservas todas las afirmaciones que suponen una negación del paradigma establecido; normalmente no basta un estudio aislado para dar la vuelta al conocimiento que ha ido asentándose durante años.

Hecho en animales o en personas

Los animales sirven para experimentar y son una fase importantísima de muchos los experimentos científicos anterior a los ensayos clínicos. Pero son eso, una fase. Lo que sucede en su organismo no es siempre extrapolable al de los seres humanos. En 2012, un estudio publicado en la revista Food and Chemical Toxicology afirmó que un tipo de maíz transgénico causaba tumores en ratones y, con él, muchos medios publicaron que esta variedad era cancerígena. El artículo fue desacreditado por la máxima autoridad sanitaria europea (EFSA) por diversos fallos metodológicos. Pero incluso si se hubieran sacado esas conclusiones de forma correcta, habría que tener en cuenta que los humanos no somos ratones: ni si se descubre una cura para el sida en los roedores ni si se detectan en ellos tumores por consumir diversas sustancias. Hasta que esas mismas conclusiones se extraen con personas, hay que ser muy cautelosos, por mucho que puedan dar importantes pistas.

Cuántas personas participan

No es lo mismo un estudio hecho con 10 personas que otro con 10.000. Parece obvio que si ambos presentan una correcta metodología, las conclusiones del segundo son más sólidas que las del primero. Así, el número de sujetos es un factor más que tener en cuenta a la hora de dar credibilidad a un experimento. En el caso del mencionad estudio que correlacionaba diabetes con consumo de sacarina, se trataba de un análisis hecho (además de con ratones) con siete personas que contradecía otros realizados con cientos de miles. Esto no impidió que algunos medios titularan de forma tajante las conclusiones del primero. Sería también un ejemplo de afirmación que contradice lo que sabemos.

Quién está detrás del estudio

Si el estudio está bien realizado y puede ser replicado, da igual quién lo ejecute, sea una empresa o un organismo independiente; tendrá la misma validez. Pero lo cierto es que existen muchos sesgos a la hora de ejecutar una investigación. Si una empresa publica un análisis sobre las bondades del producto que comercializa, es de esperar que los resultados sean favorables, entre otras cosas porque probablemente de lo contrario no los publicitaría. Es lo que se conoce como “falacia de la evidencia incompleta”. También es justo reconocer que la financiación de compañías privadas ha sido clave para impulsar numerosos avances en sus campos, así que el mero hecho de que sea una empresa la que financie una investigación, ni mucho menos la invalida. Pero si una marca de chocolates aparece anunciando lo mucho que adelgaza, habría que tomar con cautela la afirmación, aunque pueda ser verdadera. No era el caso del estudio mencionado al principio de estas líneas. Por cierto, este fue realizado por la Universidad de California.


El socorrido “podría”

Correr cinco minutos al día podría aumentar tus años de vida”. Así titulabaBussines Insider una información el pasado 31 de julio. Es fácil darle la vuelta a ese condicional usado con frecuencia en noticias científicas para no pillarse los dedos: también podría no hacerlo. Y lo cierto es que en ocasiones es lo más probable. El estudio al que hace referencia el mencionado titular fue publicado en el Journal of the American College of Cardiology y mostró que quienes corrían una media de 51 minutos semanales tenían menos riesgo de mortalidad por problemas cardiovasculares que quienes no lo hacían y su vida era una media de tres años más larga. Pero lo cierto es que no se analizó si las personas que participaron en el estudio corrían todos los días siete minutos o un par de veces en semana unos 20 o 25 minutos, como reconoció Timothy Church, coautor del estudio, a la revista Men’s Health. Así que la afirmación del titular es, cuanto menos, arriesgada. Uno más riguroso podría haber sido parecido a este: “Correr 51 minutos semanales disminuye el riesgo de morir por problemas cardiovasculares”. Seguramente, es menos atractivo que el primero.

martes, 16 de diciembre de 2014

La geografía del plagio científico

Noticias de última hora y el análisis del mundo de la política científica
Estudio de masiva archivo de pre-impresión alude a la geografía de plagio



Por John Bohannon

Nuevos análisis de los cientos de miles de manuscritos técnicos presentados a arXiv, el repositorio de preimpresión artículos digitales, están ofreciendo algunas ideas interesantes en las consecuencias y la geografía de plagio científico. Parece que copiar texto de otros documentos es más común en algunos países que en otros, pero el resultado es el mismo para los autores Generalmente OMS copia de extensamente: sus trabajos citados no tienen mucho.

Desde su fundación en 1991, arXiv ha convertido en el referente más grandes del mundo para compartir los hallazgos de la física, las matemáticas y otros campos matemáticos. Publica Cientos de papeles al día y se acerca rápidamente su presentación millones. Cualquier persona puede enviar en un papel, y presentaciones no obtener una revisión por pares completa. Sin embargo, los papeles no pasan por un proceso de control de calidad. El control final es un programa informático que compara el texto del papel con el texto de todos los otros artículos ya publicados en arXiv. El objetivo es que los papeles de bandera que tienen una alta probabilidad de tener trabajo publicado plagiado.

"Superposición de texto" es el término técnico, ya veces resulta ser inocente. Por ejemplo, un artículo de revisión Might cita generosamente de una ponencia el autor cita, o el autor podría reciclar y ligeramente actualizado frases de su propio trabajo anterior. Los papeles arXiv para el detector de plagio ofrece opiniones de tal extremo. "Es una máquina muy sofisticada logística aprendizaje clasificador", dice el fundador Paul Ginsparg arXiv, un físico de la Universidad de Cornell. "Tiene formas especiales de detección de cotizaciones bloque, texto en cursiva, el texto entre comillas, como estados de cuenta así de teoremas matemáticos, para evitar falsos positivos."

Sólo cuando no hay ninguna razón obvia para un autor que tiene trozos significativos de texto copiado desde ya publicado el trabajo, sobre todo si ese trabajo anterior no es citado y no tiene ningún solapamiento en la autoría, no el software, pongan una "bandera" para el artículo, incluidas enlaces a los documentos de la cuales tiene superposición de texto. Esa norma "es mucho más indulgente" que Críticas los utilizados por la mayoría de las revistas científicas, dice Ginsparg.

Para explorar algunas de las consecuencias de la "reutilización texto," Ph.D. Ginsparg y Cornell física estudiante Daniel Citron En comparación con el texto de la convocatoria ahora de los 757 000 artículos presentados a arXiv entre 1991 y 2012. El titular de ese estudio, publicado el lunes en las Actas de la Academia Nacional de Ciencias (PNAS) es que cuanto más texto un documento poaches desde ya obra publicada, la menor frecuencia que el papel tiende a ser citado. (El documento completo también está disponible de forma gratuita en arXiv.) También se encontró que la reutilización de texto es sorprendentemente común. Después de la filtración de los comentarios de los artículos y legítimamente citando, aproximadamente uno de cada 16 autores arXiv se encontró que han copiado las largas frases y oraciones de su propio trabajo publicado anteriormente que suman aproximadamente la misma cantidad de texto este artículo entero. Más preocupante aún, aproximadamente uno de cada 1.000 de los autores que presenten copiar el equivalente del valor de un párrafo de texto de los documentos de otras personas sin citarlas.

Entonces, ¿dónde en el mundo es todo esto reutilización texto está sucediendo? Brilla por falta en el artículo de PNAS es un mapa global del potencial de plagio. Cada vez que un autor presenta un documento a arXiv, el autor declara su país de residencia. Por lo tanto, debería ser posible revelar las que los países tienen la mayor proporción de los plagiarios. La razón hay mapa se incluyó, Ginsparg de peaje ScienceInsider, es que se detecta toda la superposición de texto en Reviews su estudio no es necesariamente el plagio.

Ginsparg estaba de acuerdo, sin embargo, para compartir los datos con abanderamiento ScienceInsider de arXiv. Desde el 1 de agosto de 2011, cuando comenzó arXiv sistemáticamente marcar la superposición de texto, 106.262 autores de 151 naciones se han presentado un total de 301.759 artículos. (Cada artículo puede tener muchos más co-autores). En general, 3,2% (9591) de los documentos se encuentra en posición. No son sólo los documentos presentados en masa por unas cuantas manzanas podridas, tampoco. Esos papeles marcados Llegaron del 6% (6737) de los autores que presenten. Dicho de otra manera, uno de cada 16 investigadores que han presentado un documento a arXiv desde agosto de 2011 ha sido marcado por el detector de plagio al menos una vez.

El mapa de arriba, preparado por ScienceInsider, adopta un enfoque conservador. Se muestra sólo la incidencia de los autores de bandera para los 57 países con al menos 100 trabajos presentados, para minimizar la distorsión de los pequeños tamaños de muestra. (En Etiopía, por ejemplo, sólo hay tres autores que presenten y dos de ellos han sido marcado.)

Los investigadores de los países que presentan la parte del león de arXiv papeles-Estados Unidos, Canadá, y un pequeño número de países industrializados de Europa y Asia-creciente nicho de plagiar menudo menos de investigadores en otros lugares. Por ejemplo, más del 20% (38 de 186) de los autores que presenten trabajos de Bulgaria se encuentra en posición, más de ocho veces la proporción de Nueva Zelanda (cinco de 207). En Japón, alrededor del 6% (269 de 4.759) de los autores que presenten se encuentra en posición, en comparación con más del 15% (164 de 1054) de Irán.

Estas disparidades pueden deberse en parte a las diferentes culturas académicas, Ginsparg y Citron Revisiones su opinión en el estudio de PNAS. Ellos atribuyen las plagio científico a "diferencias en la infraestructura académica y tutoría, o incentivos que hacen hincapié en la calidad sobre la cantidad de la publicación."

* Corrección de 11 de diciembre, 16:57: La carpeta se ha corregido para reflejar las actuales fronteras nacionales.

Science Magazine