Recherche

31 décembre 2013

EXPLOSIF - Quand les chercheurs se font prendre la main dans le sac - L'alerte générale dans le monde biomédical !

Entorses à la rigueur scientifique, retouche de clichés d’observation, lissage d’une courbe... Autant de falsifications de données qui conduisent à retirer un article d’une revue scientifique. Mais, depuis 1975, le taux de rétractation pour fraude a été multiplié par dix ! Pourquoi ? 

Experts en proie à des conflits d’intérêts, dissimulation de résultats, dépendance à l’égard des données fournies par l’industrie... L’affaire du Mediator a mis au jour nombre de dysfonctionnements, aux conséquences potentiellement dramatiques, dans l’évaluation des médicaments. Mais le plus inquiétant est peut-être ailleurs, en amont : dans la recherche biomédicale, menée pour l’essentiel par des laboratoires publics. Tandis qu’explose le nombre de publications scientifiques en sciences de la vie, les indices s’accumulent tendant à démontrer qu’elles sont de moins en moins fiables. Parmi les millions d’articles que publient chaque année les milliers de revues spécialisées dans les différents domaines de la biomédecine, une fraction croissante décrit des résultats erronés ou arrangés. Des expériences bâclées impossibles à reproduire. Voire des données frauduleuses. Comme le secteur financier miné par ses créances irrécupérables, la littérature scientifique en biologie et en médecine s’avère de plus en plus gangrénée par ces articles toxiques.

Une étude américaine publiée l’an passé dans les Proceedings of the National Academy of Science (consultable ici) l’a illustré de manière spectaculaire. Ses chercheurs ont examiné dans la base de données Pubmed, qui recense et indexe la quasi-totalité des articles scientifiques publiés en science de la vie et en médecine dans le monde entier, les articles ayant été retirés, après publication, par leurs auteurs. Cette procédure, dite de rétractation, permet à des scientifiques se rendant compte d’une erreur majeure commise dans leurs travaux de signaler à leurs collègues que cet article ne doit plus être cité. Telle est, du moins, la conception vertueuse que l’on s’en faisait. En fait, ont calculé les chercheurs américains, seul 21 % des 2 047 articles rétractés de la littérature scientifique depuis 1973 l’ont été pour ce motif. La première cause, de loin, est la fraude, avérée ou présumée : elle représente 43 % des rétractations. Les autres motifs en sont la duplication de publication pour 14 % des cas (l’usage étant que le résultat d’une expérience n’est publiée qu’une et une seule fois), le plagiat d’autres articles pour 9 %, le restant provenant des conflits entre auteurs. Surtout, souligne cette étude, ce taux de rétractation pour fraude ne cesse de progresser : il a été multiplié par dix depuis 1975 !

Cette épidémie est particulièrement intense parmi les revues les plus prestigieuses, celles dont les articles sont les plus cités. Parmi les dix revues qui ont retiré le plus d’articles pour fraude, on trouve Science (32 articles), Nature (19 articles) ou encore Cell (13 articles) dans lesquelles tout biologiste rêve de publier. Il existe même une corrélation entre le « facteur d’impact » d’une revue (c’est-à-dire la moyenne du nombre de citations des articles de la revue par d’autres articles dans les deux années suivant leur parution) et son taux de rétractation pour fraude ou erreur.

Les fraudes par origine géographique

Autre signe que c’est le cœur du système scientifique mondial qui est gangréné : les chercheurs travaillant aux États-Unis, en Allemagne ou au Japon, trois nations à la réputation scientifique ancienne, ont signé deux tiers des articles scientifiques reconnus frauduleux... Et la France ? Elle n’apparaît même pas dans l’étude ! De même, le blog retractionwatch, tenu scrupuleusement par un journaliste médical américain, ne recense que trois études françaises publiées dans des revues internationales ayant été rétractées depuis 2010. Contactés, leurs auteurs nous ont expliqué avoir demandé eux-mêmes le retrait de ces articles du fait de conflits entre auteurs dans lesquels la fraude n’entrait pas en jeu. Est-ce à dire que la science française est plus vertueuse ? Ou, plus probable, que la France, qui continue à briller en physique, est devenue une nation de second rang dans le domaine de sciences de la vie... Ce qui conduit les chercheurs du domaine à moins publier ?

Conséquences médicales

Des exemples de fraudeurs ? Joachim Boldt, brillant anesthésiste allemand de l’hôpital universitaire de Ludwigshafen, dont 80 des articles publiés depuis 1999 ont été retirés après qu’il s’est avéré, suite à des alertes lancées par ses collègues, qu’il avait inventé nombre de patients qu’il décrivait. Naoki Mori, virologue japonais de l’université de Ryukyus, dont 36 articles sur un virus à l’origine de leucémie ont été rétractés du fait du trucage des images présentées par l’auteur. Ou encore Scott Reuben, médecin américain de la Tuft University spécialiste de la douleur, dont 18 articles ont été rétractés, l’auteur ayant reconnu avoir purement et simplement inventé les données. Le record, si l’on peut dire, est à ce jour détenu par le médecin japonais Yoshitaka Fujii, dont 172 articles consacrés à différents médicaments agissant contre les douleurs et les nausées post-opératoires, entièrement trafiqués, ont été rétractés.

Certes, ces fraudeurs en série ont été sanctionnés et bannis du monde scientifique. Joachim Boldt, poursuivi au pénal en Allemagne, a disparu. Scott Reuben a été condamné à six mois de prison et à une lourde amende... pour la fraude à l’assurance médicale qu’entraînaient ces publications fausses. Naoki Mori et Yoshitaka Fujii ont été licenciés par les institutions japonaises qui les employaient.

On peut également se rassurer en soulignant, que, s’il a décuplé en trois décennies, le taux de rétractation pour fraude reste minime : un pour 10 000 au pic observé pour les articles publiés en 2005.

Certes, mais, comme le fait observer le médecin et microbiologiste Arturo Casadevall, de l’Albert Einstein College of Medicine de New York, qui a dirigé l’étude parue dans les Proceedings of the National Academy of Science, « il est faux de croire que la fraude scientifique est un crime dont seul le criminel pâtit ». Précisément parce qu’elle touche à la santé, la fraude dans le domaine de la biomédecine est susceptible de conséquences gravissimes. Et Casadevall de prendre l’exemple de l’affaire Wakefield.

On a peu entendu parler, en France, de cette histoire très connue au Royaume-Uni. En 1998, le chirurgien Andrew Wakefield publie dans un journal médical réputé, The Lancet, la description de douze cas d’enfants autistes ayant été vaccinés par le vaccin “Rougeole Oreillons Rubéole” (ROR). Et suggère un lien de cause à effet. Wakefield, jouant les lanceurs d’alerte, s’exprime dans les médias. Panique. Le taux de vaccination chute rapidement au Royaume-Uni et, dans une moindre mesure, aux États-Unis. Les cas de rubéole s’envolent, et des rougeoles mortelles réapparaissent. Il faut cependant attendre 2010 pour que l’article, cité plus de 700 fois dans la littérature spécialisée, soit rétracté par The Lancet. Wakefield, dont il s’est avéré par la suite qu’il avait été financé par des groupes anti-vaccination, avait inclus dans son étude, portant déjà sur un très faible effectif, des cas sans rapport avec l’hypothèse qu’il entendait démontrer.

Plus insidieuse est la menace que fait peser l’existence dans la littérature spécialisée d’articles signés d’auteurs qui se sont révélés être des fraudeurs systématiques, mais qui n’ont pas été rétractés.

L’Allemand Joachim Boldt en offre un cas d’école. La commission d’enquête qui a demandé la rétractation de 90 de ses articles ne s’est penchée, pour des raisons inconnues, que sur ses travaux datant d’après 1999. Que penser de ceux publiés avant cette date ? N’y a-t-il pas des raisons de penser qu’ils étaient tout aussi frauduleux ? La question n’est pas que spéculation intellectuelle. Boldt a tant publié dans sa spécialité que le fait d’intégrer, ou non, ses travaux à des méta-analyses (c’est-à-dire des études statistiques reprenant ensemble les données de toutes les études publiées) en change les conclusions.

Le médecin allemand a par exemple travaillé sur l’utilisation des hydroxy-éthyl amidons, produits qui gonflent le volume sanguin permettant ainsi de compenser les effets des hémorragies, dans le traitement des états de choc. La toxicité de ces produits pour le rein est bien connue mais les travaux de Boldt soutenaient que le risque valait la peine d’être pris. Mais si l’on enlève les sept articles de Boldt publiés avant 1999 de la méta-analyse, la conclusion change : les hydroxy-éthyl amidons causent plus de décès qu’ils ne sauvent de patients. Pourtant, ils restent toujours fréquemment utilisés par les réanimateurs, même si l’on commence à s’en méfier. Leur emploi causerait, selon le médecin Ian Roberts de la London School of Hygiene and Tropical Medicine qui a participé à la ré-analyse de la littérature scientifique sur les hydoxy-éthyls amidons, 200 à 300 morts par an dans le seul Royaume-Uni !

Peu de signalements

L’inquiétude du monde biomédical, surtout, vient du constat unanime que ces exemples spectaculaires, aux conséquences potentiellement dramatiques, de fraudes ne sont en fait que la face émergée d’un iceberg. « Les grands fraudeurs, qui fabriquent de toutes pièces ou falsifient délibérément leurs résultats, sont exceptionnels. Ils relèvent presque de la pathologie et ont toujours existé. Bien plus préoccupants sont les comportements qui ne relèvent pas au sens strict de la fraude, mais plutôt de petites entorses à la rigueur scientifique. On entre là dans une zone grise et incertaine, qui est la plus dangereuse pour la qualité de la science », analyse le biologiste François Rougeon, qui dirige le Comité de veille déontologique et de conciliation de l’institut Pasteur.

D’innombrables anecdotes de chercheurs, rapportées sous le couvert de l’anonymat, en témoignent : ici, on « cuisine » les données pour enlever les points qui sortent de la courbe que l’on souhaite obtenir ; là, on arrange, à coups de logiciels de retouche d’images, les clichés des observations au microscope ; ailleurs, on laisse publier des résultats douteux d’un étudiant avec lequel on s’entend mal parce que l’on souhaite surtout s’en débarrasser (la soutenance de la thèse étant conditionnée à la publication d’articles)...

« Il y a une continuité entre les résultats "arrangés" et la fraude avérée. D’ailleurs, il est courant de dire qu’une expérience "a marché" ou "n’a pas marché". Bien sûr, personne ne rapporte l’expérience qui ne marche pas. Or, en toute rigueur, elle devrait être présentée. De même, la majorité des expériences de biologie ne sont faites qu’un très petit nombre de fois, ce qui fait, qu’en principe, elles ne veulent rien dire », explique le biologiste, Antoine Danchin, qui, après une longue carrière au CNRS et à l’institut Pasteur, dirige à présent la société AMAbiotics.

Plusieurs études de sociologie des sciences ont cherché à quantifier ces manquements quotidiens à l’éthique scientifique en envoyant à des milliers de chercheurs des questionnaires qu’ils pouvaient remplir de manière anonyme. Daniele Fanelli, de l’université d’Édimbourg, a regroupé une vingtaine de ces études menées entre 1986 et 2005 en une méta-analyse (consultable ici). Ses conclusions ? De l’ordre de 2 % des scientifiques admettent avoir une fois dans leur carrière fabriqué ou falsifié des résultats. Il y a, cependant, de fortes raisons de penser que ce taux est sous-estimé. De fait, 14 % des scientifiques déclarent avoir connaissance d’un collègue qui a embelli ses résultats... Bien que la moitié d’entre eux déclarent n’avoir rien fait pour signaler le problème.

Si l’on quitte les péchés capitaux que sont la fabrication et la falsification de données pour entrer dans la zone incertaine des péchés véniels (utiliser une méthode d’analyse dont on sait qu’elle n’est pas la plus pertinente mais qu’elle permet d’obtenir un résultat désiré, changer en cours d’étude la méthodologie, exclure de la publication les expériences qui ne confirment pas la thèse qu’elle défend...), le taux d’admission s’envole à 34 %. Ce travail regroupe des études faites sur toutes les disciplines, mais la méta-analyse montre, une fois encore, que le domaine de la recherche en biologie et en médecine est sur-représenté.

Ces petites entorses à la rigueur sont-elles de plus en plus fréquentes ? Nombre de chercheurs, en particulier parmi les plus expérimentés, en sont persuadés mais il n’existe pas d’études chiffrées permettant de confirmer, ou d’infirmer, leur impression. En revanche, deux études publiées coup sur coup en 2011 et 2012 par des chercheurs des firmes pharmaceutiques Bayer et Amgen ont marqué les esprits.

Ces chercheurs ont entrepris de reproduire, dans leurs propres centres de recherche, les résultats de laboratoires publics qui affirmaient avoir identifié des mécanismes biologiques pouvant servir de cibles pour la conception de nouveaux médicaments dans le domaine du cancer, de l’hématologie et des maladies cardio-vasculaires. Résultat : respectivement 25 % et 11 % de reproductibilité. En d’autres termes, entre 75 et 90 % des résultats publiés dans les meilleures revues biomédicales ne sont pas reproductibles. Donc pas fiables. Pourquoi ? Impossible à dire. Mais les chercheurs d’Amgen ne mâchent pas leurs mots pour dire combien ils sont enclins à soupçonner que la tendance des chercheurs à arranger leurs données pourrait bien être la première cause de cette absence de reproductibilité. « Les éditeurs des revues scientifiques, leurs relecteurs, et les évaluateurs des demandes de financement, sont le plus souvent à la recherche de découvertes scientifiques simples, claires et complètes : des histoires parfaites. Il est donc tentant pour les chercheurs de publier seulement les données qui correspondent à ce qu’ils veulent démontrer, voire de cuisiner les données pour qu’elles correspondent à l’hypothèse sous-jacente. Mais le problème est qu’il n’y a pas d’histoire parfaite en biologie. »

D’où proviennent ces problèmes de fiabilité, dont la recherche biomédicale et plus encore l’industrie pharmaceutique se passeraient bien ?

L’univers impitoyable des éprouvettes

Pourquoi la biologie est-elle particulièrement fraudogène ? Certes, c’est une science jeune aux concepts fragiles. Mais la précarité de certains chercheurs et la course au financement des laboratoires sont aussi de réelles situations à risque.

Tous les chercheurs vous le diront : la compétition a toujours joué un rôle dans la recherche scientifique, mais l’intensité voire la férocité de la concurrence ne cesse de s’accroître. À cela deux causes principales.

La première est l’entrée dans l’arène des pays émergents. Depuis 2008, la Chine est par exemple devenue la seconde puissance scientifique mondiale en nombre d’articles publiés annuellement.

La seconde est la généralisation du système de financement de la recherche par appels à projets de la part des États ou des institutions scientifiques, parfois transnationales. Les chercheurs ne sont plus seulement en compétition entre eux pour la primauté d’une découverte, mais aussi pour obtenir le financement qui leur permettra de mener leurs travaux, voire, plus prosaïquement, de payer leur propre salaire. Il s’ensuit une course effrénée à la publication scientifique qui a, de l’avis général, un puissant effet fraudogène tant est grande la tentation d’arranger les résultats pour placer un article dans une revue prestigieuse. Cependant, cette accentuation de la compétition s’observe dans tous les domaines scientifiques alors que la détérioration inquiétante de la qualité des résultats publiés concerne surtout les sciences de la vie et de la médecine. Quelle est donc la spécificité de ces disciplines ?

Posez la question à des physiciens et ils répondront avec une hauteur aristocratique amusée : « parce que la biologie n’est pas une science ». Le prix Nobel de physique Ernest Rutherford, un des découvreurs de la radioactivité, le disait déjà au début du siècle dernier : « Il n’y a qu’une science, la physique. Tout le reste n’est que collection de timbres. » Comme la philatélie, la biologie doit en effet s’efforcer d’ordonner un monde, celui du vivant, à la diversité inextricable. Les lois, du moins celles décrites à ce jour, y sont rares. Les paramètres, qui conditionnent le résultat d’une expérience, souvent mal maîtrisés. Il peut arriver que le simple fait de saisir un tube à essai avec la main ou avec une pince change le résultat d’une expérience biochimique, du fait du réchauffement induit par le contact avec les doigts. Même dans les conditions les plus contrôlées du laboratoire, les cellules ne cessent d’évoluer, de se modifier, ce qui fait qu’il est difficile de reproduire une expérience, parfois au sein même du laboratoire. D’où la tentation – le « one shot » dans le jargon des chercheurs – de publier son résultat « tant que cela marche », car la reproduire ferait courir le risque « que cela ne marche plus ».

Rien de tel en physique, où une expérience se doit d’être reproductible par n’importe quelle équipe. L’intensification de la concurrence scientifique internationale entraîne donc des conséquences différentes. « Je n’ai jamais été confronté à des cas de fraude manifeste, type fabrication de données ou même embellissement, témoigne Pascal Degiovanni, physicien à l’École normale supérieure de Lyon. Ce qui peut arriver, en revanche, c’est que l’on publie des résultats avec des expériences limitées, sans explorer tout ce qu’il faudrait explorer. Ce qui est certain, c’est que plus on mettra les gens sous pression pour l’obtention de financements, plus on augmente la probabilité qu’une équipe doive faire un arbitrage entre qualité et rapidité. »

Michèle Leduc, physicienne du laboratoire Kastler Brossel de l’École normale supérieure et présidente du comité d’éthique du CNRS, est du même avis : « La rigueur appliquée à la collecte et au traitement des données est sans commune mesure en physique et en biologie, ce qui protège notre discipline des difficultés que rencontre aujourd’hui la biologie. Dès qu’une expérience est publiée, les équipes concurrentes essayent de la reproduire. Si elles n’y arrivent pas, elles publieront un commentaire dans les revues spécialisées, qui lancera le débat visant à en comprendre les raisons. On peut certes noter qu’il y a de plus en plus de commentaires publiés, ce qui suggère que les physiciens ont tendance à se mettre à publier trop vite, mais aucune augmentation des rétractations d’articles frauduleux comme en biologie. »

La fraude existe parfois en physique, mais elle reste le fait d’individus isolés, vite démasqués. Il n’a ainsi fallu qu’un an pour que les supercheries du physicien allemand travaillant aux États-Unis Jan Hendrik Schön, qui avait inventé, au demeurant avec talent, la plupart de ses données soient repérées. Seize de ses articles, dont nombre dans Science et Nature, ont été rétractés en 2002.

Nul doute que la physique, forte de ses 400 ans d’histoire remontant à Galilée et Newton, maîtrise bien mieux son objet d’étude, la matière, que la biologie, science jeune (la découverte de l’ADN a moins d’un siècle), le sien : le vivant.

Mais il existe aussi des raisons matérielles, pragmatiques, à la fragilité des résultats des sciences de la vie, qui tiennent à l’organisation même des laboratoires. De même que la médecine a ses mandarins, la biologie a ses patrons, personnalités souvent dotées de très forts égos, peu enclines à accepter la critique. « Il faut distinguer la fraude intentionnelle de la fraude accidentelle et de l’auto-persuasion. Ces deux dernières vont souvent ensemble », analyse le biologiste Antoine Danchin.

Et de prendre pour exemple deux affaires fameuses ayant enflammé le milieu des biologistes ces dernières décennies : celle de Mirko Beljanski, qui prétendit en 1975 avoir découvert une méthode révolutionnaire pour tester les propriétés cancérigènes d’une molécule, fondée sur un principe biochimique allant à l’encontre de tout le savoir sur l’ADN ; et celle de Jacques Benvéniste, qui publia en 1988 dans Nature un article des plus controversés montrant qu’un solvant pouvait continuer à avoir des effets biologiques même s’il ne contenait plus aucune molécule active, en d’autres termes que l’eau avait une mémoire.

Ces deux chercheurs ont fini par être licenciés de leurs institutions, respectivement l’institut Pasteur et l’Inserm, et leurs travaux sont aujourd’hui unanimement considérés comme erronés. « Beljanski et Benvéniste sont des cas typiques de fraude accidentelle associée à de l’auto-persuasion, explique Antoine Danchin, j’ai discuté avec l’un et avec l’autre et j’ai bien failli physiquement me faire écharper : ces auteurs refusaient purement et simplement de faire les contrôles, ultra simples, que je leur demandais. »

Que la paranoïa soit au chercheur ce que la silicose est au mineur, une maladie professionnelle, est bien connu de tous les observateurs du monde scientifique. Le problème est que l’organisation actuelle de la recherche en biologie tend à aggraver cette tendance à la paranoïa, du moins à en susciter l’éclosion.

Les collectifs de recherche qu’étaient les laboratoires sont de plus en plus fragmentés en de multiples équipes, concurrentes entre elles, parfois sur le plan scientifique, toujours pour la quête de financements (lire notre précédente enquête). Là où existait un directeur de laboratoire, existent à présent une demi-douzaine, voire plus, de ce que le jargon du métier appelle des PI (prononcer pi/aï, pour « Principal investigator ») : des chefs d’équipe, mini-patrons qui cherchent le financement de leurs recherches et dirigent le travail de leurs nombreux collaborateurs qu’ils ont personnellement recrutés, le plus souvent sous forme de contrats précaires, durant ce que dure le financement qu’ils ont obtenu.

La précarité ne concerne pas seulement le personnel technique mais aussi les jeunes chercheurs que sont les post-docs qui enchaînent, après leur thèse, les séjours dans différents laboratoires. Elle est un des plus redoutables facteurs fraudogènes. « Si l’on enlève les cas de fraudeurs patentés et délibérés, qui sont une toute petite minorité, il n’y a pas de profil type du chercheur qui manque à l’intégrité scientifique, mais des situations à risque. Par exemple le doctorant en fin de thèse qui a absolument besoin de publier un article, le post-doc qui postule pour un poste de chercheur permanent, le chef d’équipe vieillissant qui a besoin d’une promotion... Et le problème est que les réformes récentes de la recherche, en accentuant la précarité, multiplient ces situations à risque », explique l’économiste de la santé Martine Bungener, qui a été pendant dix ans chargée de l’intégrité scientifique au sein de la direction générale de l’Inserm.

Comment reprocher à un chercheur, souvent âgé d’une trentaine d’années, qui va jouer dans une publication sa possibilité d’obtenir un poste d’arranger, parfois, les données ? Les anecdotes en la matière abondent. Telle celle-ci, concernant un très prestigieux laboratoire de la Harvard Medical School, au directeur régulièrement pressenti pour le Nobel, rapportée par un chercheur en biologie du CNRS qui y a fait un post-doc. « Lorsque j’y suis arrivé, une autre post-doc venait de publier un article dans Nature, raconte-t-il. Sauf que j’ai été, dans le même laboratoire, incapable de reproduire ses résultats. Et personne au monde n’y est jamais parvenu. Le directeur du laboratoire, s’il l’avait voulu, aurait pu détecter cette fraude tant le comportement de cette chercheuse était curieux : elle avait par exemple masqué la vitre de la pièce où elle menait ses expériences pour ne pas être vue. Mais le directeur ne voulait pas voir l’évidence, sa stratégie étant de faire porter la responsabilité au post-doc. De fait, cette chercheuse a quelques années plus tard perdu tous ces financements. » L’article en question n’a jamais été rétracté.

Devenu lui-même PI, ce chercheur reconnaît cependant la difficulté de contrôler ce que font les personnes qui travaillent sous sa direction. « Nous n’avons pas, matériellement, le temps d’aller derrière le microscope, de vérifier les données brutes. Nous ne pouvons que vérifier les données analysées, ce qui laisse un espace à la faute, voire à la fraude, pour celui qui est décidé à réussir à tout prix. De plus, nombre de PI transmettent la pression à laquelle ils sont eux-mêmes soumis à leurs étudiants, ce qui les incite à trouver exactement ce que leur supérieur aimerait qu’ils trouvent. »

Cette incitation à trouver ce que son supérieur aimerait trouver n’est qu’une des manifestations d’un soupçon qui pèse, de manière récurrente, sur l’authenticité des résultats obtenus dans certains domaines de la biologie et, plus encore, en médecine : celui du « funding effect » (effet de financement), par lequel un chercheur a le bon goût de trouver, plus ou moins consciemment, des résultats qui vont dans le sens des intérêts du financeur de son travail. Tant que ce dernier relève de la puissance publique, on peut supposer qu’il n’a pas d’autres intérêts que l’obtention d’un résultat juste et aussi près que possible de la réalité. Mais la suspicion commence dès lors que le financeur est une entreprise privée. L’étude de Daniele Fanelli, évoqué dans le précédent volet de cette enquête, montre que 15 % des chercheurs admettent avoir une fois dans leur carrière changé la conception d’une étude suite à une demande du bailleur de fonds et 33 % avoir arrêté une étude sur requête d’une entreprise la finançant.

Mais il y a aussi des mauvaises pratiques universitaires qu’il n’est pas bon de rappeler, souligne Hervé Maisonneuve, médecin, professeur associé de santé publique à l’Université de Lyon 1.

La plupart des revues scientifiques demandent à présent aux auteurs de déclarer les financements qui ont permis le travail publié, ainsi que d’éventuels conflits d’intérêts.

Cette mesure de transparence a permis de mener des études pour savoir si, oui ou non, le conflit d’intérêts a eu un effet sur le résultat obtenu. En d’autres termes, de voir si la suspicion était fondée. Réponse : oui, parfois.

Un des exemples les plus spectaculaires en est l’hypothèse selon laquelle le tabagisme diminuerait le risque de développer une maladie d’Alzheimer. L’idée n’est pas totalement saugrenue. Le récepteur auquel se lie la nicotine est précisément l’un de ceux qui est altéré dans la pathologie. Mais seule une étude épidémiologique peut permettre de conclure... Et les quelque 43 qui ont été menées offrent des résultats contradictoires.

Une équipe menée par Janine Cataldo, de l’université de Californie à San Francisco, les a rassemblées en une méta-analyse publiée en 2010 dans la revue Journal of Alzheimer’s disease (consultable ici). Elle aboutit à un résultat très net : si on enlève des 43 études les onze d’entre elles dont les auteurs ont été, à un moment ou un autre, financés par l’industrie du tabac, le risque de développer une maladie d’Alzheimer est de 72 % plus élevé chez les fumeurs que chez les non-fumeurs. Précisément parce que les facteurs en jeu sont multiples et que ces études, de méthodologies différentes, sont parfois difficiles à comparer, il ne s’agit pas d’en conclure de manière définitive que le tabagisme accroît le risque de développer une maladie d’Alzheimer. Mais, de même que les téléspectateurs déclarent le plus souvent ne pas être influencés par la publicité, les chercheurs affirmant que l’origine de leurs financements n’influe pas sur le résultat de leurs recherches semblent parfois manquer de lucidité.

Une science trop jeune, encore incertaine de ses concepts et fragile dans ses méthodes ; une organisation de la recherche fraudogène ; une influence discrète mais bien réelle des sources de financement... Ces trois facteurs se conjuguent pour rendre les résultats de la recherche en biologie de plus en plus suspects. Comment y remédier ?

L’omerta plutôt que l’alerte

Aux États-Unis, l’organisme chargé de l’intégrité de la science évalue à 8 000 le nombre de chercheurs ayant commis des inconduites scientifiques dans leur carrière. Or seuls une vingtaine de cas sont signalés par an. Pourquoi ce silence ?

« En dépit de l’attention croissante aux problèmes d’inconduite scientifique, les efforts pour promouvoir l’intégrité en recherche restent inefficaces », reconnaissait en 2010 dans les colonnes de Nature, Sandra Titus, responsable des sciences de la santé de l’Office of Research Integrity américain. Pourtant, propositions et initiatives ne manquent pas pour s’attaquer au problème. Après de longues années de cécité plus ou moins volontaire, la communauté scientifique internationale semble décidée à affronter la question de la dégradation de la qualité des articles en biologie et en médecine. Quitte à réformer en profondeur les règles du jeu de la science.

Pionniers en la matière, les États-Unis avaient créé en 1992, à la suite d’affaires de fraudes retentissantes, l’Office for Research Integrity. Cette organisation examine les rapports d’enquêtes menées dans les laboratoires financées par les puissants National Institutes of Health (NIH), principaux bailleurs de fonds publics de la recherche biomédicale aux États-Unis, en cas de suspicion de manquement à l’intégrité. Elle a le pouvoir d’interdire un chercheur ou un institut d’être financé par les NIH.

En France, là encore suite à une affaire de fraude commise dans un de ses laboratoires, l’Institut national de la santé et de la recherche médicale (Inserm) a créé en son sein en 1999 une Délégation à l’intégrité scientifique (DIS), placée sous l’autorité du directeur général et pouvant procéder à des investigations. L’initiative a fait école. Longtemps en retrait sur cette question, le CNRS vient de créer un poste de médiatrice chargée de recueillir toutes les plaintes, et de les aiguiller vers les services concernés. L’Institut national de la recherche agronomique (Inra) s’apprête à nommer un délégué à la déontologie au sein de sa direction. Et l’université Paris VI, une des plus actives en recherche, vient aussi tout récemment de se doter d’un service dédié à l’intégrité scientifique.

Ces guichets uniques, dotés de pouvoir d’enquête et, le cas échéant, de sanctions, sont assurément utiles. Ils offrent aux chercheurs témoins dans leurs laboratoires de manquements à l’intégrité scientifique la possibilité de les signaler. Et ils proposent des procédures écrites, codifiées, pour les traiter, ce qui permet de lutter contre la tendance spontanée du monde scientifique à traiter ces cas par de petits arrangements inavouables, en d’autres termes à mettre la poussière sous le tapis.

Pourtant, il est frappant de voir que leur activité stagne, alors que les manquements se généralisent. L’ORI américain est en moyenne saisi de 24 cas par an, ce qui est très peu. Sandra Titus, de l’ORI, a sorti sa calculette. « Nous savons que 2 % des scientifiques reconnaissent avoir au moins une fois eu des comportements relevant de l’inconduite scientifique. Beaucoup tirent de cette observation la conclusion réconfortante qu’il n’y a que peu de brebis galeuses. Cependant, si on extrapole ce résultat aux 400 000 chercheurs financés par des fonds fédéraux, cela signifie que 8 000 d’entre eux ont commis des inconduites scientifiques dans leur carrière et que la majorité des cas restera indétectée », écrivait-elle en juillet 2010 dans Nature.

En France, la DIS de l’Inserm traite une quinzaine de cas annuels, mais son périmètre de saisine est beaucoup plus large que celui de l’ORI, puisqu’elle peut, contrairement à l’institution américaine, être saisie des conflits surgissant à propos des signatures d’un article : une question particulièrement sensible en biologie et en médecine, car le premier signataire de l’article est réputé avoir mené le travail, le dernier signataire l’avoir dirigé, et les autres y avoir contribué d’une manière ou d’une autre. Qui signe un article, et dans quel ordre, représente un enjeu crucial pour un chercheur, puisqu’il y va devant la postérité de la reconnaissance de sa participation à une recherche...

Ce type de conflit représente la très grande majorité des cas traités par les instances spécialisées des organismes de recherche français, des présomptions de fraude n’étant signalées que deux ou trois fois par an. « Certes, les conflits de signatures n’ont pas de conséquences sur la qualité des articles publiés. Mais leur nombre croissant est une autre conséquence de l’intensification de la concurrence scientifique », analyse Pierre-Henri Duée, qui dirige la mission d’audit interne et d’inspection de l’Inra (Institut national de la recherche agronomique).

Du côté des chercheurs, on se montre souvent hésitant à signaler les manquements observés. Des chercheurs américains ont envoyé un questionnaire aux chercheurs du NIH leur demandant s’ils en avaient été témoins, et quelle avait été leur attitude. Ils ont reçu 2 599 réponses. Les 85 % de réponses positives à la première question ne peuvent guère être tenus pour signe que les manquements à la rigueur sont à ce point majoritaires. À l’évidence, les chercheurs qui ont été témoins de tels problèmes ont davantage répondu à l’enquête. Plus intéressante est la réaction des chercheurs. Parmi les deux tiers d’entre eux qui ont entrepris une action, seuls 16 % se sont adressés à leur hiérarchie ou aux organismes spécialisés de leur institution. Tous les autres ont préféré entreprendre des démarches informelles, bien qu’elles n’aient abouti que dans 28 % des cas à corriger le problème observé.

Mettre à l’amende ?

« L’attitude la plus fréquente est d’essayer de régler cela en interne, discrètement, en jouant de ses relations : par exemple en faisant en sorte, auprès de l’école doctorale, qu’un chercheur qui laisse ses doctorants embellir leurs données n’ait plus d’étudiants », témoigne un ancien chercheur de l’institut Pasteur. « Jamais un étudiant en thèse, un technicien en CDD ou un post-doc ne prendra le risque pour sa carrière d’aller signaler les manquements dont il est témoin. »

L’ORI, tout comme les instances spécialisées des organismes de recherche français, ont beau garantir la discrétion, la crainte est grande, dans un petit milieu où tout le monde se connaît, d’apparaître comme un délateur (lire notre l’enquête d’octobre 2011 “Quand des universitaires protègent un plagiaire”). Pourtant, la déclaration de Singapour sur l’intégrité scientifique de 2011 (lire ci-dessous), texte fondateur des efforts internationaux en la matière, stipule qu’il est du devoir du chercheur de signaler les manquements dont il est témoin. « Ce principe est bon, mais il est vrai qu’en France, le fait de faire un signalement est mal perçu, d’autant plus qu’il y a, dans le droit français, des lacunes juridiques sur la protection des lanceurs d’alerte », explique la biologiste, Michèle Hadchouel, qui dirige la DIS de l’Inserm.

Déclaration de Singapour sur l’Intégrité en recherche



Les tentatives institutionnelles de lutter contre l’inconduite scientifique, pour utiles qu’elles soient, semblent donc toucher à leurs limites. « Il faut reconnaître que la création de la DIS, si elle a permis de régler efficacement nombre de problèmes, n’est pas parvenue à alerter suffisamment sur les risques croissants de manquements à l’intégrité scientifique », reconnaît l’économiste de la santé, Martine Bungener.

Sandra Titus, de l’ORI, tire des conclusions similaires. Pour elle, la seule mesure efficace serait de frapper les chercheurs au porte-monnaie en finançant en priorité les instituts qui ont mis en place les dispositions les plus strictes pour lutter contre les manquements à l’intégrité scientifique, de manière à enclencher une dynamique vertueuse collective.

Face à ces limites de la lutte institutionnelle contre l’inconduite scientifique, la solution est-elle d’impliquer davantage les revues ? Le problème, comme on le lira au prochain volet de notre enquête, c’est que l’édition scientifique est en plein bouleversement du fait de l’irruption de nouvelles revues. Et nombre d’entre elles ont toutes les raisons de prêter fort peu attention à la qualité de ce qu’elles publient.

Le piège de la gratuité

Comme le monde de la musique hier ou celui du cinéma aujourd’hui, l’édition scientifique est percutée de plein fouet par la demande de gratuité dans l’accès aux données. Du coup, les revues où les chercheurs payent pour être publiés et celles aux comités éditoriaux ineptes se multiplient, favorisant la détérioration de la qualité de la science publiée.

Jusqu’à il y a une dizaine d’années, les revues scientifiques – on en compte pas moins de 25 000 dans le seul domaine biomédical – vivaient des abonnements des bibliothèques universitaires. Certaines étaient éditées par des sociétés savantes, à but non lucratif. D’autres par des entreprises privées spécialisées dans l’édition scientifique assurant fabrication et diffusion des revues mais ne s’occupant en rien du contenu, placé sous la responsabilité d’un comité de chercheurs sous la direction d’un rédacteur en chef. Mais depuis le début des années 2000, un troisième acteur est entré dans la danse : les revues en accès libre (open access), qui proposent leur contenu gratuitement accessible sur internet. Une avancée pour la diffusion du savoir ? Certainement. Mais aussi un insidieux facteur de détérioration de la qualité de la science publiée.

Les revues en accès libre reposent en effet sur un changement de modèle économique : ce n’est plus le lecteur qui paye pour lire, mais l’auteur, ou l’institution qui l’emploie, qui payent pour publier. La publication d’un article peut coûter jusqu’à 3 000 dollars. « Ce modèle d’édition que l’on appelle en “open access gold”, en constante augmentation ces dernières années, comporte des inconvénients car il est réservé aux laboratoires qui en ont les moyens. Sans compter les effets pervers d’un système qui risque d’encourager des publications à seule fin de rendre une revue rentable », observe Michèle Leduc, présidente du comité d’éthique du CNRS. De fait, ces revues ont objectivement intérêt à accepter le plus d’articles possible. Ne seront-elles pas tentées de diminuer leurs exigences de qualité ? Leurs éditeurs scientifiques, qui sont tous des chercheurs en poste, sauront-ils résister à cette pression de l’appât du gain ?

L’exemple des revues éditées par la Public Library of Science (PLOS) est sur ce point intéressant. La PLOS naît en 2001 d’une pétition de biologistes américains s’indignant du fait que la plupart des revues éditées par des entreprises privées ne permettent pas l’accès gratuit à leurs archives en ligne. À l’époque, le travail bibliographique, qui fait partie du quotidien du chercheur, est en train d’être bouleversé par l’arrivée d’internet. Pourquoi consacrer une heure à se rendre en bibliothèque pour photocopier un article alors qu’il devient techniquement possible de le voir s’afficher en quelques clics sur son écran d’ordinateur ? Mais la plupart des éditeurs font la sourde oreille, et les animateurs de la pétition décident de créer leur propre revue.

PLOS Biology, première revue en accès libre dans le domaine, voit le jour en 2003, et devient rapidement respectée pour sa qualité et son exigence. Cette réussite conduit à lancer de nouveaux titres spécialisés : PLOS Medicine, PLOS Genetics... Puis, en 2006, un titre généraliste, PLOS One, ouvert à toute soumission d’article dans les domaines biomédicaux qui ne seront jugés par les relecteurs que sur leur méthodologie, et non sur l’importance ou la nouveauté du travail. « PLOS One affiche 70 % d’acceptation des articles soumis, ce qui est un des taux les plus élevés en biomédecine. PLOS Medicine n’en accepte que 10 à 20 %. Chaque article dans PLOS One coûte 1 350 dollars à ses auteurs. Le groupe PLOS, longtemps déficitaire, se félicite à présent de sa rentabilité, avec 24,7 millions de dollars de chiffre d’affaires et 3,95 millions de dollars de bénéfice en 2011. Dans les faits, PLOS One est devenu une machine à cash », observe Hervé Maisonneuve, médecin qui anime le blog Rédaction médicale et scientifique.

Entreprises prédatrices

PLOS appartient à une organisation à but non lucratif, gérée par des scientifiques et appuyée par les NIH (National Institutes of Health) américains. On peut donc penser que le souci de la qualité des articles publiés l’emportera sur l’appât du gain. Mais le développement exponentiel des revues en accès libre a également entraîné l’apparition de « prédateurs » : des entreprises d’édition scientifique qui créent des centaines de nouvelles revues en accès libre dans le seul but de profiter de la manne financière des auteurs désirant publier.

Le documentaliste américain Jeffrey Beall, de l’université du Colorado à Denver, en tient une liste à jour sur son blog. Y figurent plus de 200 entreprises considérées comme potentiellement prédatrices selon une vaste liste de critères : absence d’un rédacteur en chef ; comité éditorial formé de scientifiques n’appartenant pas au domaine couvert par la revue ; nom de revue délibérément trompeur ; ou encore démarchage agressif, relevant du spam, de relecteurs acceptant d’expertiser les articles soumis.

Des exemples ?

Voici le groupe Hindawi, basé au Caire, éditeur de pas moins de 558 revues aux comités éditoriaux pléthoriques (mais dont certains membres ont découvert, stupéfaits, leurs noms sur les listes), mais ne comprenant jamais de rédacteur en chef, ce qui rend fort peu transparente la prise de décision sur l’acceptation, ou le refus, d’un article soumis.

Ou le groupe David Publishing, basé en Chine, éditeur d’une soixantaine de revues, parmi lesquelles Psychology Research dont le comité éditorial comprend une simple liste de 15 noms, sans aucune mention ni de leur qualité ni de leur adresse. Une rapide recherche sur internet permet de constater que le comité comprend notamment une didacticienne des mathématiques mexicaine, personnalité assurément respectable mais dont on peut douter de la compétence en matière de recherches en psychologie, ainsi qu’un psychologue saoudien... dont la bibliographie se limite à des articles publiés dans Psychology Research.

Voici encore le groupe indien Science Domain, expert en titres ronflants laissant entendre que les revues proviennent de prestigieuses nations scientifiques. Mais son American Chemical Science Journal a pour rédacteurs en chef un Chinois et un Coréen, son British Microbiology Research Journal un Chinois travaillant au Mexique, et son British Journal of Medicine and Medical Research un Russe, Dimitry Kuznetsov, de surcroît biochimiste et non médecin, ce qui ne l’empêche pas d’avoir été (il vient de démissionner, après la révélation par The Scientist du scandale) également rédacteur en chef de l’International Journal of Pure and Applied Chemistry édité par le même groupe. Les revues du groupe Science Domain demandent en général 500 dollars par article, mais offraient une remise exceptionnelle de 70 à 80 % pour tout article soumis entre le 1er juillet et le 30 septembre 2013 : on ne saurait mieux trahir l’intention mercantile de remplir à tout prix leurs revues en cette période de vacances universitaires dans l’hémisphère Nord.

Science Domain a eu la bonne idée de publier la liste nominative des quelque 1 800 chercheurs du monde entier qui ont relu les articles publiés par les revues du groupe entre janvier 2011 et 2012. En l’étudiant, on constate que la moitié d’entre eux travaillent dans les pays émergents, dont environ 12 % en Afrique et dans les pays arabes, quasi inexistants sur la scène scientifique internationale. Quant aux quelque 27 % de chercheurs européens qui ont relu des articles, ils travaillent pour moitié dans les pays du sud de l’Europe (Italie, Grèce, Espagne, Roumanie...), notoirement moins développés scientifiquement. Sans soupçonner a priori ni la compétence ni l’intégrité de ces chercheurs, on peut s’interroger sur la qualité de l’avis qu’ils ont donné, de manière anonyme, sur les manuscrits qui leur ont été soumis.

La risposte du public

Ces prédateurs de l’édition scientifique représentent-ils une menace pour la qualité de la science ? On peut le craindre. Certes, les chercheurs aguerris évitent en général de publier dans ces revues, dont la réputation laisse à désirer. En revanche, ils peuvent lire et citer leurs articles, sans savoir qu’ils proviennent de revues des plus douteuses, tant leur marketing repose sur un savant mimétisme de leurs titres avec ceux des revues établies.

La confusion est encore plus grande pour le grand public, qui, incapable de se repérer dans la jungle des publications, peut juger crédible et validée par la communauté scientifique une étude publiée dans une revue « prédatrice ».

C’est ainsi que l’on a vu resurgir voilà quelques semaines la vieille antienne de la vaccination comme cause de l’autisme, pourtant invalidée par toutes les études, dans la revue Open Access Scientific Reports éditée par un des plus gros prédateurs, l’indien OMICS. Qu’elle soit inepte sur le plan scientifique n’empêche pas cette étude d’être aujourd’hui reprise avec déférence par les groupes anti-vaccination (par exemple ici), dont son auteur, John B. Classen, est au demeurant proche.

Aussi inquiétant que soit le développement des revues prédatrices, il ne remet pas en cause le grand basculement du monde de l’édition scientifique vers la gratuité de l’accès aux articles.

Comme le monde de la musique hier ou celui du cinéma aujourd’hui, l’édition scientifique est percutée de plein fouet par la montée de la demande de gratuité dans l’accès aux produits culturels, et cherche des solutions à son financement. Mais, contrairement à la musique ou au cinéma, la science est un domaine majoritairement financé par le secteur public, et ce partout dans le monde.

Des quelque 9 938 revues scientifiques en accès libre, toutes disciplines confondues, recensées dans le Directory of Open Access Journal, 65 % ne demandent ainsi aucune participation financière aux auteurs. Ce sont pour la plupart des revues de sciences humaines et sociales, éditées et financées par des universités ou des centres de recherche. « La logique du paiement par les auteurs, ou leurs laboratoires, des articles s’est surtout développée dans le domaine biomédicale, parce qu’il est bien mieux financé, en particulier par ses contrats avec le privé. Les éditeurs ont compris qu’il y avait là un marché », confirme Hervé Maisonneuve.

Mais la tendance à faire financer par la puissance publique les revues en accès libre se développe aussi dans les sciences expérimentales. En Allemagne, la société Max Planck, plus ou moins l’équivalent du CNRS français, finance sur ses fonds propres des revues en accès libre et engage ses chercheurs à y publier. Au Royaume-Uni, le Wellcome Trust, une fondation très importante dans le financement de la recherche biomédicale, exige des chercheurs qu’elle finance de publier dans des revues à accès libre, et a lancé la sienne, e-Life, en partenariat avec la société Max Planck et le Howard Hughes Medical Institute.

Aux États-Unis, depuis février dernier, les agences fédérales de financement de la recherche exigent des chercheurs qu’elles soutiennent que leurs articles soient mis en ligne sur une plateforme dédiée, au maximum un an après leur publication, au nom du fait que les contribuables ont le droit de prendre connaissance gratuitement des résultats des recherches menées avec l’argent public.

En France, le CNRS encourage, sans pour autant le rendre obligatoire, le dépôt des publications de ses chercheurs sur le système d’archives ouvertes HAL qu’il pilote depuis 2002. Et le G8 des ministres de la recherche, réuni le 12 juin dernier à Londres, a souligné dans sa déclaration finale son engagement pour le libre accès aux résultats scientifiques.

Cet engagement public pour le libre accès aux articles scientifiques suffira-t-il à tarir la manne dont les éditeurs, qu’ils soient ou non prédateurs, se repaissent ? Possible, mais elle ne viendra en aucun cas à bout de la course effrénée à la publication qui est à la source de la dégradation de la qualité des articles scientifiques.

La dictature du "Publier ou périr"

Aujourd’hui, la carrière d’un scientifique s’évalue au nombre de ses publications. Un critère qui ne dit rien de la qualité. En mai dernier, des chercheurs et éditeurs parmi les plus prestigieux ont rendu public un appel international contre cette dérive. D’autres prônent la slow science, à l’image du mouvement slow food contre la malbouffe.

Publish or perish : publier ou périr. Telle est la très darwinienne maxime qui gouverne le fonctionnement de la recherche publique. Le principal critère de reconnaissance pour un scientifique, que ce soit auprès de ses pairs ou de sa hiérarchie, est le nombre et la qualité de ses publications. À tel point que l’objectif d’un chercheur n’est souvent plus tant de publier un article rendant fidèlement compte de son travail que de circonvenir les objections que pourraient lui faire les relecteurs, le plus souvent anonymes, auxquels la revue à laquelle il propose son article soumet son manuscrit. Que faire face à cette pression à la publication, qui est de l’avis général un des facteurs les plus puissants de la dégradation de la qualité de la science ?

La San Francisco Declaration on Research Assessment (DORA) propose en la matière une réforme radicale. Rendue publique le 13 mai dernier, elle appelle à ne plus utiliser le facteur d’impact (c’est-à-dire la moyenne sur les deux dernières années du nombre de citations des articles parus dans une revue) dans l’évaluation des chercheurs. Derrière cette question d’apparence très technique, se cache une initiative d’ampleur prise par la communauté scientifique internationale pour s’attaquer au problème de la dégradation de la qualité des articles, tout particulièrement en sciences de la vie.

La liste des signataires constitue en effet une alliance aussi vaste qu’inédite : quelque 6 000 chercheurs du monde entier, les éditeurs de revues scientifiques très prestigieuses (Science, Journal of Cell Biology, The EMBO Journal, Development...) et une multitude de sociétés savantes du monde entier, dont l’American Society for Cell Biology qui en est à l’initiative. Tous appellent à « une insurrection », selon le terme d’un des rédacteurs de l’appel, contre l’utilisation du facteur d’impact des revues dans l’évaluation des chercheurs, et notamment dans l’attribution des postes et des financements.

La critique du facteur d’impact n’est pas nouvelle. Les raisons pour lesquelles il ne peut être tenu pour un bon indicateur de la qualité du travail d’un chercheur sont connues depuis longtemps. Citons-en 5 :

- Il mesure l’impact d’une revue, non d’un article.

- Il mesure une moyenne, qui peut être aisément déportée par un ou deux articles très cités ; c’est ainsi que la publication dans Nature en 2000 de l’article historique décrivant le génome humain, cité depuis plus de 10 000 fois, a valu et vaut toujours à la revue britannique le facteur d’impact le plus élevé.

- Il est incapable de mesurer l’influence durable des travaux publiés, puisqu’il est calculé sur les deux dernières années.

- Il ne tient pas compte du fait que les articles ont été cités de manière favorable, ou au contraire pour en critiquer les données.

- Enfin, il peut aisément être manipulé par les éditeurs. « La publication de hot papers est une stratégie pour augmenter les citations. Il s’agit de publier de préférence des articles ayant une forte probabilité d’être cités et/ou repris par la presse grand public, augmentant ainsi la notoriété de la revue », explique Hervé Maisonneuve, animateur du blog Rédaction médicale et scientifique.

Conçu à l’origine comme un outil permettant aux bibliothécaires de ne s’abonner qu’aux revues les plus influentes, le facteur d’impact est devenu ces deux dernières décennies le critère le plus important d’évaluation des chercheurs. « La publication dans un journal à haut facteur d’impact n’est aucunement une garantie de qualité de la recherche effectuée, d’autant que la sélection des articles ne résulte pas uniquement d’une revue par les pairs mais souvent de choix de l’éditeur en chef dictés par des effets de mode. Pourtant publier ne serait-ce qu’une ou deux fois dans ces journaux vedettes est toujours remarqué dans une évaluation et donne invariablement un élan à la carrière », constate amèrement la physicienne, Michèle Leduc, présidente du comité d’éthique du CNRS. François Rougeon, son homologue à l’institut Pasteur, fait le même constat : « Il suffit de publier un article dans Nature pour être certain d’avoir dans les 4 ou 5 années à venir tout ce dont on a besoin. »

Dans un certain nombre de pays émergents, en particulier en Chine, la rémunération d’un chercheur est même directement indexée sur le facteur d’impact des revues dans lesquelles il publie : soit une incitation permanente, sonnante et trébuchante, à arranger les données pour publier dans les revues les plus célèbres. Ou à plagier des travaux déjà publiés. L’analyse par zone géographique des causes de rétraction d’articles, évoquée au premier volet de cette enquête, montre que la Chine et l’Inde fournissent les principaux contingents d’articles rétractés pour plagiat ou duplication d’une étude.

Comment en est-on arrivé là, à cette dictature d’un facteur d’impact dont tout le monde sait à quel point il est peu pertinent ? « C’est un aspect d’une tendance plus générale à se fier, pour l’évaluation, à des indicateurs chiffrés, parce qu’ils sont réputés objectifs », remarque François Rougeon, de l’institut Pasteur. Le marketing des grandes entreprises d’édition scientifique y a joué un rôle. Cette industrie extrêmement profitable, dont le métier consiste à fabriquer et diffuser les revues sous le contrôle scientifique des chercheurs du comité éditorial, ne s’est pas privée de faire des facteurs d’impact des arguments de promotion de ses revues. Ce n’est pas par hasard que les entreprises qui éditent les revues aux plus hauts facteurs d’impact, comme le britannique Mc Millan press (Nature) ou le néerlandais Elsevier (Cell), ont décliné l’invitation à signer la DORA contrairement aux sociétés savantes qui éditent leurs propres revues. Mettre en avant leurs facteurs d’impact, de loin les plus élevés, est aussi une manière, pour elles, de se distinguer des éditeurs prédateurs.

Mais l’évolution du système de recherche, marqué par une compétition accrue, joue aussi un rôle. Les agences qui distribuent les financements comme les commissions chargées des recrutements font évaluer les dossiers qui leur sont soumis par des chercheurs par ailleurs accablés d’autres tâches. N’ayant souvent pas le temps d’étudier réellement la qualité scientifique du candidat postulant ou du projet qu’il propose, ils cèdent souvent à la tentation de se fier au facteur d’impact des revues dans lesquelles il publie. Beaucoup de chercheurs le reconnaissent en privé.

En finir, comme le propose la DORA, avec la dictature des facteurs d’impact suffira-t-il à retrouver la qualité perdue des articles scientifiques ? Sans doute pas, tant le problème a des causes variées et profondes, qui tiennent à l’intensification de la compétition scientifique liée à la mondialisation. Mais ce serait peut-être une première étape vers un retour à une évaluation plus qualitative que quantitative, appréciant l’influence durable d’un travail, et reconnaissant que reproduire une étude est, pour la communauté scientifique, tout aussi important que la publier le premier puisque cela prouve sa fiabilité.

De récentes initiatives visent à renforcer la reproductibilité des résultats en permettant aux chercheurs de publier des résultats bruts, non analysés. Pouvant être consultés par tous, collègues et concurrents, ils pourraient être plus efficacement contrôlés. C’est le pari que font les projets Dryad ou Runmycode, qui permettent au chercheur de déposer sur un site toutes les données et les méthodes utilisées d’un article, ce qui permet à n’importe qui de refaire, et donc de vérifier, leurs analyses ou leurs calculs. Plusieurs éditeurs de revues se sont de leur côté associés pour lancer l’initiative de reproductibilité visant à permettre la publication, trop souvent négligée, de la répétition d’une expérience déjà publiée.

Les chercheurs en biologie et en médecine se saisiront-ils de ces nouveaux outils ? L’exemple de la physique théorique, qui pratique depuis 1991 le dépôt en ligne des données avec le site ArXiv, très respecté, peut inciter à l’optimisme. Mais la discipline a peu d’enjeux économiques, contrairement au domaine biomédical où chacun est jaloux de ses données qui peuvent, brevets et contrats avec le privé à la clé, rapporter gros. D’où une réticence à les partager, la multiplicité des intérêts individuels allant contre l’intérêt collectif.

Risquons une analogie. De même que la critique de la junk food de la restauration rapide a entraîné la création d’un mouvement slow food, ne serait-il pas temps, face à la montée de la junk science, de promouvoir la slow science ainsi que le défend Joël Candau, anthropologue, professeur à l’université de Nice, auteur d’un appel publié en 2011 ?
Pour un mouvement Slow Science

Chercheurs, enseignants-chercheurs, hâtons-nous de ralentir ! Libérons-nous du syndrome de la Reine Rouge ! Cessons de vouloir courir toujours plus vite pour, finalement, faire du surplace, quand ce n’est pas de la marche arrière ! À l’instar des mouvements Slow Food, Slow City ou Slow Travel, nous appelons à créer le mouvement Slow Science.

Chercher, réfléchir, lire, écrire, enseigner demande du temps. Ce temps, nous ne l’avons plus, ou de moins en moins. Nos institutions et, bien au-delà, la pression sociétale promeuvent une culture de l’immédiateté, de l’urgence, du temps réel, des flux tendus, des projets qui se succèdent à un rythme toujours plus rapide. Tout cela se fait non seulement aux dépens de nos vies – tout collègue qui n’est pas surmené, stressé, « surbooké » passe aujourd’hui pour original, aboulique ou paresseux -, mais aussi au détriment de la science. La Fast Science, tout comme le Fast Food, privilégie la quantité sur la qualité.

Nous multiplions les projets de recherche pour tenter de faire vivre nos laboratoires qui, souvent, crient misère. Résultat : à peine avons-nous terminé la mise au point d’un programme et, par mérite ou par chance, obtenu une subvention, que nous devons aussitôt songer à répondre aux prochains appels d’offres, au lieu de nous consacrer entièrement au premier projet. Parce que les évaluateurs et divers experts sont eux-mêmes toujours pressés, nos CV sont de plus en plus souvent évalués au nombre de lignes (combien de publications, combien de communications, combien de projets ?), phénomène qui induit une obsession de la quantité dans la production scientifique. Résultat : outre l’impossibilité de tout lire, y compris dans les domaines les plus pointus, outre le fait que de très nombreux articles non seulement ne sont jamais cités mais ne sont jamais lus, il devient de plus en plus difficile de repérer la publication ou la communication qui compte vraiment – celle à laquelle le ou la collègue aura consacré tout son temps pendant des mois, parfois pendant des années – parmi les milliers d’articles dupliqués, saucissonnés, reformatés, quand ils ne sont pas plus ou moins « empruntés ».

Cela va de soi, notre offre de formation se doit toujours d’être « innovante », bien évidemment « performante », « structurante » et adaptée à l’ « évolution des métiers », évolution dont on a par
ailleurs bien du mal à cerner des contours perpétuellement mouvants. Résultat : dans cette course effrénée à l’ « adaptation », la question des savoirs fondamentaux à transmettre – savoirs qui, par
définition, ne peuvent être inscrits que dans la durée – n’est plus à l’ordre du jour. Ce qui compte, c’est d’être dans l’air du temps, et surtout de changer sans cesse pour suivre cet « air » tout aussi changeant.

Si nous acceptons des responsabilités gestionnaires (conseils d’université, direction de départements ou de laboratoires), comme nous sommes tous tenus de le faire au cours d’une carrière universitaire, nous voilà aussitôt contraints de remplir dossier après dossier, en donnant souvent les mêmes informations et les mêmes données statistiques pour la nième fois. Bien plus grave, les effets d’une bureaucratie envahissante et de la réunionite - ce dernier phénomène permettant de sauver les apparences de la collégialité tout en la vidant généralement de son essence - font que plus personne n’a de temps pour rien : nous devons nous prononcer sur des dossiers reçus le jour même pour une mise en œuvre le lendemain ! Certes, nous caricaturons un peu les choses en écrivant cela, mais nous n’en sommes hélas pas loin.

Cette dégénérescence de nos métiers n’a rien d’inéluctable. Résister à la Fast Science est possible. Nous pouvons promouvoir la Slow Science en donnant la priorité à des valeurs et principes fondamentaux :
- À l’université, c’est principalement la recherche qui continue à nourrir l’enseignement, malgré les agressions répétées de tous ceux qui rêvent de secondariser en partie cette institution. Il est donc impératif de préserver au moins 50% de notre temps pour cette activité de recherche, qui conditionne la qualité de tout le reste. Très concrètement, cela implique le refus de toute tâche qui empiéterait sur ces 50%.
- Chercher et publier en privilégiant la qualité demandent que chacun puisse se consacrer exclusivement à ces tâches pendant un temps suffisamment long. À cette fin, revendiquons le bénéfice de périodes régulières sans charge d’enseignement ou de gestion (un semestre de droit tous les 4 ans par exemple).
- Cessons de privilégier la quantité dans les CV. Des universités étrangères donnent déjà l’exemple, en limitant à 5 le nombre de publications que peut mentionner un candidat à un poste ou à une promotion (Trimble S.W., 2010, « Reward quality not quantity », Nature, 467:789). Ceci suppose que, de manière collégiale et transparente, nous nous dotions de méthodes et d’outils pour que nos dossiers ne soient plus évalués en fonction du nombre de publications ou de communications, mais en fonction du contenu de celles-ci.
- Nourri de la recherche, l’enseignement est la mission par excellence des universitaires : il s’agit de transmettre les savoirs acquis. Il faut laisser les enseignants-chercheurs enseigner, en améliorant leurs conditions de travail (combien de temps gaspillé à résoudre des problèmes pratiques et souvent triviaux qui ne relèvent pas de leurs missions ?), en allégeant leurs tâches administratives et en réduisant le temps passé à « monter des maquettes ». Ces fameuses « maquettes », notamment, pourraient se borner à définir le cadre pédagogique propre à la discipline dans l’université considérée, sans qu’il soit nécessaire de changer ce cadre tous les quatre ans (ou cinq ans), comme c’est le cas actuellement.
- Dans nos tâches de gestion, exigeons tout le temps nécessaire pour étudier les dossiers qui nous sont soumis. Désormais, dans l’intérêt de tous, travaillons uniquement sur les contenus et rejetons cet ersatz de démocratie ou de collégialité qui consiste à voter sur des dossiers que, dans le meilleur des cas, nous n’avons pu que survoler. Rien ne nous oblige à nous soumettre à l’idéologie de l’urgence dont se gargarisent le Ministère et les « gestionnaires responsables ».
- Plus généralement, il n’est pas inutile de rappeler que notre vie ne s’arrête pas à l’Université et qu’il est nécessaire de garder du temps libre pour nos familles, nos amis, nos loisirs ou... pour le plaisir de ne rien faire. Si vous êtes d’accord avec ces principes, signez le texte d’appel à la fondation du mouvement Slow Science. Mais, surtout, prenez votre temps avant de décider de le faire ou pas !

Joël Candau, 29 octobre 2010

Autre fait de corruption : un chercheur de vaccins américain corrompu se fait piéger !


Un autre chercheur de vaccins a été surpris de truquer la recherche sur un vaccin contre le sida, ajoutant au motif de la fraude scientifique et de la criminalité qui caractérise l'industrie du vaccin moderne. Dr Dong-Pyou Han de l'Iowa State University a démissionné cette semaine après avoir admis qu'il a dopé des échantillons de sang de lapin avec du sang humain sain qui a faussement montré la présence d'anticorps qui prouvait la fonctionnalité son vaccin contre le sida.

Les Instituts nationaux de santé (NIH) étaient tellement convaincus par la fraude qui ils ont donné 19 millions de dollars pour le financement de la recherche. Les NIH ont détecté la fraude après avoir tenté de reproduire le travail de Han et à trouver quelque chose qui n'allait pas avec la recherche.

Les documents fédéraux récemment publiés révèlent l'ampleur étonnante de la fraude. Comme l'indiquent les conclusions :
L'enquête a révélé que l'intimé a falsifié les résultats de la recherche pour développer un vaccin contre le virus de l'immunodéficience humaine (VIH) en enrichissant volontairement des échantillons de sérum de lapin avec des anticorps pour fournir les résultats souhaités. La falsification a fait apparaître que des lapins immunisés avec le fragment GP41-54 d'anticorps induits par VIH de glycoprotéine GP41 capables de neutraliser une large gamme de souches de VIH.
Pas de peine pour fraude scientifique pour l'intéressé

Pour être surpris à voler 19 millions de dollars d'argent du contribuable pour subventionner et feindre la recherche de vaccin contre le sida, le Dr Dong- Pyou Han est simplement interdit de recevoir des fonds gouvernementaux de contrat sur 3 ans.

Pas de prison. Aucune accusation criminelle. Pas même un effort pour le forcer à rembourser les fonds qu'il essentiellement volé.

Les fabricants de vaccins, aussi, sont régulièrement engagés en matière de corruption généralisée et de commettre de multiples crimes d'inculpation. GlaxoSmithKline, par exemple, a admis avoir commis plusieurs crimes dans un règlement conclu récemment avec le ministère de la Justice américaine.

Pfizer a également admis avoir commis des crimes de actes délictueux graves, mais toutes ces sociétés - GSK, Pfizer, Merck et plus - restent libres de faire du business avec les mêmes gouvernements qu'ils fraudent systématiquement.

Dans l'industrie du vaccin, la fraude fait partie de la culture organisationnelle, et il se trouve dans la science frauduleuse, le gel des prix des médicaments, la corruption généralisée des médecins, la falsification de la preuve scientifique et les retombées de l'industrie aux médias grand public sous la forme d'insertion d'argent.

Presque tous les vaccins sont fondées sur la fraude

Vous comprenez maintenant pourquoi la plupart des vaccins ne fonctionnent pas. Les vaccins antigrippaux n'empêchent pas la grippe. Les vaccins contre les oreillons et la rougeole provoquent effectivement les oreillons et la rougeole. Les vaccins contre la polio provoquent une paralysie généralisée et la poliomyélite comme des symptômes.

Il est un fait historique - un fait, le CDC a désespérément essayé de dissimuler - que 98 millions d'Américains ont été injectés avec des vaccins contre la polio mixés avec des virus cancérigènes. Le CDC a récemment nettoyée cette information historique sur son site Internet dans le cadre d'un régime d'histoire révisionniste.

Il est également un fait que les anciens scientifiques de Merck, comme le Dr Maurine Hilleman qui a ouvertement admis - sur cassette ! - Que les vaccins contenaient un très grand nombre de virus "furtifs" cancérigènes.

Voici juste un petit extrait de son compte rendu :
Eh bien, c'était à Merck. Ouais, je suis venu à Merck. Et euh, j'allais développer des vaccins. Et nous avons eu des virus sauvages dans ces jours. Vous souvenez-vous des virus rénales de singe sauvages et ainsi de suite? J'ai dit à Bill Mann, j'ai dit "regarde, j'ai eu un problème et je ne sais pas quoi à faire." Bill Mann est un véritable homme brillant. J'ai dit que ces singes sont moches sont ramassés et stockés dans les aéroports de transit. Il a dit, très simplement, vous allez de l'avant et obtenez vos singes directement d'Afrique occidentale et le feu vert de l'Afrique, les amener à Madrid et les décharger là, il n'y a pas d'autre trafic pour animaux là, les faire voler en Philadelphie et les ramasser. Nous avons donc apporté depuis l'Afrique et je ne savais pas que nous importions le virus du sida, à l'époque.

Sur fond diverse ... c'est vous qui avez introduit le virus du sida dans le pays. Maintenant, nous savons ! C'est la vraie histoire ! Que Merck ne fera pas de développer un vaccin !
Même les vaccins qui pourraient effectivement marcher sont intentionnellement mixés avec de l'aluminium, MSG, le mercure et le formaldéhyde

Juste pour s'assurer que les vaccins sont aussi destructrices que possible, l'industrie du vaccin fait en sorte que presque tous les vaccins étaient enduits avec des produits chimiques neurotoxiques.

Comme Natural News a signalé à plusieurs reprises, même le CDC continue à admettre que les vaccins sont intentionnellement formulés avec MSG, le formaldéhyde, le mercure et l'aluminium.

En quelques années, le CDC sera sans aucun doute que de purger son site web aussi. Ensuite, il fera semblant que les vaccins ne contiennent du mercure et que ceux qui disent une fois qu'ils contenaient du mercure est évidemment dingue et pas dignes de confiance.

Quand il s'agit de vaccins, voyez-vous, tout est basé sur la fraude. Logique et la science sont jetés par la fenêtre. L'efficacité est tout à fait abandonné. Les vaccins ne doivent prouver qu'ils fonctionnent réellement. Ils sont acceptés comme une question de foi par les adeptes de la secte médicale réductionniste connu comme "la médecine occidentale."

Nul n'est autorisé à la question que les vaccins en utilisant n'importe quel questionnement scientifique. Nul n'est autorisé à comparer les enfants vaccinés les enfants non vaccinés et comparer les résultats. Quiconque ose mener des recherches sur les dangers des vaccins est refusée immédiatement et de façon permanente le financement par les NIH, un groupe financé par le contribuable qui paie effectivement la grande majorité des coûts de R & D de Big Pharma.

Quand il s'agit de vaccins, voyez-vous, tout le système médical est complètement dingue ... très probablement parce qu'ils ont été vaccinés à l'autre et sont littéralement souffrent d'une intoxication chronique au mercure (qui endommage le cerveau). Les actions de ce faux chercheur de vaccin contre le sida ne sont même pas inhabituelle : ils sont comparables pour l'évolution. C'est ainsi que presque tous les que les vaccins sont fabriqués à la chaîne ! C'est la seule façon de le rendre mortelle, des cocktails génétiques contaminés semblent être efficaces quand ils ne sont pas vraiment.

Aucun commentaire :