Manger bio réduirait les risques de cancer

Publié le , par Carole Guidon
Manger bio réduirait les risques de cancer

La présence de résidus de pesticides dans de nombreux aliments fait régulièrement polémique, certains les accusant d'être cancérigènes, d'autres refusant de condamner ces produits sans preuve au profit de ceux issus de l'agriculture biologique. Qui a tort, qui a raison ? Difficile à dire, du moins... jusqu'à aujourd'hui !

Une étude menée par des chercheurs français et parue au mois d'octobre 2018 dans la revue médicale The Jama Internal Medicine semble en effet confirmer les vertus d'une alimentation faisant la part belle aux aliments bio. Menée auprès de 70 000 personnes de 2009 à 2016, l'étude avait pour objectif de mettre en évidence ou non le lien entre type d'alimentation et déclaration d'un cancer.

Et les résultats sont sans appel ! Après sept années d'études, les chercheurs ont constaté que le risque de développer un cancer était réduit de 25% chez les plus gros consommateurs de produits bio. Chez les femmes ménopausées, le risque de déclarer un cancer du sein est diminué de 34%. Mieux encore, le risque de lymphomes est quant à lui diminué de 76%.

Si ces chiffres ont de quoi ravir ceux qui se sont déjà convertis au bio, ils restent cependant à prendre avec des pincettes. Il se pourrait en effet que les consommateurs de produits issus de l'agriculture biologique aient une meilleure hygiène de vie, ce qui pourrait avoir un impact direct sur leur santé. Les adeptes du bio peuvent aussi appartenir à la famille des non-fumeurs, pratiquer une activité sportive régulière, avoir une consommation d'alcool limitée, ou encore posséder des revenus plus élevés leur permettant notamment de mieux se soigner.

Mais si le lien entre présence de résidus de pesticides dans l'alimentation et cancers venait à se confirmer, une autre question que celui du mode de culture devrait se poser, celle de l'inégalité d'accès aux produits bio du fait de leur coût plus élevé. Plus qu'une question de santé, c'est aussi une question de société à laquelle nous risquons d'être confrontés.