Si la controverse est encore vive aujourd’hui , c’est que la science n’est pas en mesure d’apporter une réponse claire à la question de la dangerosité des pesticides.
Pourtant, ce ne sont pas les études qui manquent, et de nombreux acteurs mènent leurs propres études, même en étant parfois engagés personnellement dans le débat. C’est le cas notamment de l’association Générations Futures, ou de la multinationale Monsanto. Dans ces cas-là, bien entendu se pose la question de la partialité de l’étude : peut-on considérer comme valide une étude qui défend les mêmes positions que les acteurs qui l’ont financée ?
A cette question, M. Nicolle, vice-président de l’AMLP, association d’Alerte des Médecins contre Les Pesticides, nous a présenté, dans un entretien qu’il nous a accordé, une méthodologie qui, selon lui, permet de conserver ou de rejeter une étude, quelle que soit sa source.
Dans les 9 points qui suivent, il nous décrit lui-même par ses mots cette méthodologie :
« 1 – Les études valables sont celles publiées (différentes de celles des industriels, qui demeurent secrètes) et transparentes.
a) Nature de l’étude : Aujourd’hui les publications sont différentes d’autrefois. Autrefois, on faisait une étude sans décrire le détail, et on concluait. Aujourd’hui sont décrits avec la plus grande précision les objectifs, méthodes, la qualité du matériel, l’origine des matrices, le déroulement de l’étude, les résultats, l’analyse de ceux-ci, la discussion avec les points forts, points faibles.
b) Transparence : Pour beaucoup de produits, la formulation complète n’est pas portée à notre connaissance et encore moins les divers tests sur les coformulants, adjuvants et surtout les métabolites. Il peut y avoir faiblesse de l’étude quand elle se concentre sur les seules substances actives et ignore les produits qui sont des mélanges
2 – La qualité de la revue
a) Des études publiées dans des revues à comité de lecture (peer review).
b) Le facteur d’impact (impact factor) de la revue, c’est-à-dire la prise en compte du nombre de fois où chaque article publié dans la revue est cité sur les deux dernières années écoulées : Science, Lancet, Nature, EHP (Environment Health Perspectives).
3 –L’absence de conflit d’intérêt
4 – La faiblesse de certaines études statistiques doit être rejetée, quand il s’agit de simples corrélations, ou d’études dont la puissance statistique est faible, le degré de significativité faible, ou encore où il existe de nombreux facteurs de confusion qui doivent être éliminés d’autant plus qu’on se situe dans une causalité plurifactorielle. Le type d’analyse est aussi important : cas témoins ou cohorte, rétrospective ou prospective, maladie rare avec son corollaire, nécessité d’une longue période d’exposition pour les études. Le biais est moins important dans les cohortes car les sujets sont choisis et non tirés au hasard mais même sur des études statistiquement valables, on nous opposera toujours, par delà les études statistiques concluantes, que le lien de causalité n’a pas été démontré
5 – La méta-analyse est une démarche statistique intéressante. Il s’agit de compiler plusieurs études pour augmenter les effectifs, tout en les critiquant quant à leurs objectifs, leur méthodologie, leur interprétation des résultats, si bien que certaines sont retenues avec un fort coefficient , quand d’autres sont considérées de moindre valeur. Une compilation achève ces méta-analyses et un tableau fixe les différents critères à étudier et le degré du poids de la preuve (de faible à fort) : the weight of evidence selon les divers critères ou objectifs fixés. Ensuite, on additionne les résultats, mais on peut avoir des jugements plus ou moins sévères pour les études selon que le résultat nous convient ou pas. Pour chaque critère étudié, les études sont classées de la plus faible à la plus forte (voir l’avis de 96 scientifiques de l’EFSA sur le caractère non cancérigène du glyphosate ici).
Toutefois, la faiblesse d’un avis, je dis bien d’un avis (et non d’une étude) peut être due au fait que tous les aspects de la toxicité ne sont pas étudiés (par exemple neurotoxicité centrale des pesticides chez les mammifères non exigée). L’autre biais c’est de ne prendre en considération que certaines études.
6 – Les études prenant en compte les expositions directes ont plus de poids que les modélisations (biomarqueurs d’exposition, biomonitoring urine, sang, cheveux, lait, biomarqueurs d’effet : acetylcholinestérase, stress oxydatif, aromatase, cytochrome p450, adduits ADN, modification épigénétique, biomarqueurs de susceptibilité : croisement des données génétiques et d’exposition et non des modélisations).
7 – Comme il n’est pas possible pour des raisons éthiques de faire des études sur l’homme, des expositions accidentelles nous renseignent avec force (stockage pesticide, puberté très précoce, seveso, chlordécone, épandage aérien et troubles néonics taira, sans parler du DDT et de carson).
8 – En fait, c’est plus un faisceau d’études qu’une seule étude qui permet de reconnaître la validité d’une hypothèse des études convergentes (sur l’animal, sur plusieurs espèces, in vitro humaine, avec éventuellement des mécanismes d’action mis en évidence, des approches épidémiologiques : études cas -témoins).
La référence à ce faisceau de convergence se trouve prise en compte dans la définition de certains critères , voir la définition des CMR (Cancérogènes, Mutagènes et Reprotoxiques); référence aux études sur plusieurs espèces animales différentes, à des études épidémiologiques, existence ou non lien de causalité, études in vitro, études in vivo, etc… ce qui permet de situer un certain degré de certitude.
9 – Des études sur modèle humain in vitro (testicules embryonnaires, cellules placentaires , étude de la respiration mitochondriale, de l’apoptose) auront plus de poids que les études sur l’animal, car le parallélisme n’est pas total avec l’homme, et en plus il peut y avoir discussion sur les espèces. Des débats ont notamment lieu sur le choix des espèces pas toute aussi sensibles (souris)
D’autres critères faisant la force d’une étude : la durée des expositions et l’évolution suite aux articles de Séralini pour augmenter la durée d’exposition dans les tests d’homologation est un point important: la durée de la vie!
Cependant, pour des raisons stratégiques, les industriels ou les politiques peuvent exiger des niveaux de preuve inatteignables !
Je vous renvoie à l’ouvrage de Stéphane Foucart La fabrique du doute, où l’exigence permanente du niveau de preuve de plus en plus élevé est un moyen utilisé par les industriels pour repousser les décisions ou dédouaner l’impact de certains produits.»
Ainsi, une telle méthode permet d’éliminer les études biaisées, pour ne conserver que les travaux véritablement scientifiques. Une telle pratique est également observée à l’ANSES, qui a la tâche de rassembler les différents acteurs du débat pour synthétiser leurs études respectives, de mener ses propres travaux et de rendre ainsi des comptes à l’instance qui l’a saisie.
Ohri Yamada, qui travaille à l’Agence dans le Département d’Analyse des Risques, a répondu à nos questions sur cette recherche de la validation des études scientifiques.
A l’ANSES, les chercheurs ont tendance à privilégier les articles scientifiques qui sont publiés dans des revues à comité de lecture et validés par des pairs, ainsi que ceux qui sont placés dans la littérature académique : ce sont ces articles qui sont utilisés lors des expertises.
Cependant, il reconnaît que les différents acteurs ne sont pas forcément égaux à ce niveau, notamment à cause de la différence de moyens. En effet, les industriels sont plus habitués à publier leurs travaux dans les revues reconnues. Au contraire, les travaux des associations peuvent moins prétendre à une telle reconnaissance, et sont ainsi moins visibles.
Comment alors rétablir l’équilibre ? L’ANSES reprend ici un schéma similaire à celui de M. Nicolle, avec cette notion de critère qui revient dans les propos de M. Yamada, critères qui permettent d’estimer la qualité et la recevabilité d’une étude.
Régine Boutrais, sociologue et responsable du développement des relations avec les parties prenantes à l’ANSES, insiste d’ailleurs sur ce point : à l’Agence, la façon dont est décryptée la méthodologieeemployée pour retenir une étude est très élaborée, et la raisonnement est poussé très loin selon elle.
Comme pour M. Nicolle, l’ANSES s’appuie donc sur nombre de critères : bon nombre d’animaux, bonne race de souris, existence d’une expérience témoin, dose administrée selon la bonne voie, source de financement de l’étude… Finalement, tous ces critères permettent de faire le tri dans les études, et de s’affranchir de leur provenance pour décider de leur validité.
Un des exemples les plus retentissants qui a suscité la polémique il y a peu en est justement l’étude de Gilles-Eric Séralini. Suite à son analyse de celle-ci, l’ANSES, comme plusieurs autres, a en effet rejeté ce dossier, comme on peut le lire dans un article de Stéphane Foucart, paru dans Le Monde en 2013 : « Aucune preuve de fraude n’a jusqu’ici été rapportée. Cependant, toutes les instances scientifiques qui se sont prononcées contestent les conclusions du biologiste français. L’EFSA, de même que les agences de sécurité sanitaire française (Anses), allemande (BfR), canadienne (Environnement Canada), australienne et néo-zélandaise (Fsanz), ou le Haut Conseil des biotechnologies (HCB) français : toutes ces institutions ont noté des failles expérimentales, des défauts d’interprétation, une statistique défectueuse. »
Dans le cas de l’ANSES, une fois qu’une étude est réalisée, elle est envoyée à l’instance qui a saisi l’agence pour réaliser cette étude, par exemple un ministère. Comment passe-t-on alors du rapport à une éventuelle loi ? Quelle est aujourd’hui la législation concernant les pesticides ?