Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.

Science

Des chercheurs montréalais réalisent une découverte sur l’infertilité

MONTRÉAL - Des chercheurs du Centre de recherche du Centre hospitalier de l’Université de Montréal (CRCHUM) publient dans Nature Communications une étude qui lève le voile sur un mécanisme qui contribue probablement au faible taux de succès de grossesses dans certaines cliniques de fertilité.

Cette nouvelle information pourrait augmenter les chances des femmes d’avoir un bébé.

Les cellules saines contiennent normalement un noyau dans lequel l’ADN contenant notre information génétique est conservé. Les embryons qui sont créés in vitro dans les cliniques de fertilité contiennent souvent des cellules avec deux noyaux. Encore aujourd’hui, de nombreuses cliniques de fertilité continuent de transférer ces embryons, appelés «embryons binucléés», dans l’utérus de la patiente.

La première auteure de l’étude, la doctorante Lia Paim, a expliqué dans un communiqué que la recherche menée «sur des embryons de souris (montre) que la binucléation a des conséquences majeures».

Fondamentalement, précise-t-elle, la présence de deux noyaux est un mauvais signe pour l’embryon, puisque cela augmente le risque que l’embryon développe un trouble appelé «aneuploïdie» qui altère sa santé et pourrait contribuer à l’échec des grossesses.

Elle a dit espérer que ses travaux aideront les cliniques de fertilité à sélectionner les meilleurs embryons à réimplanter chez les patientes et ainsi augmenter les chances de certains couples d’avoir des enfants.

Le nombre de personnes concernées par les problèmes d’infertilité a doublé depuis les années 1980. L’infertilité touche un couple canadien sur six.

Science

Les boissons «diète» aident à faire perdre du poids? Incertain

DÉTECTEUR DE RUMEURS / D’un côté, il y a ceux qui croient que de boire à l’occasion un coke diète ne mettra pas en péril leur perte de poids. Et de l’autre, ceux qui estiment que cette boisson, même prise en remplacement, peut influer sur leur santé. Le Détecteur de rumeurs et l’Organisation pour la science et la société se sont demandé si la science pouvait désormais trancher.

Ce n’est plus un secret que les boissons gazeuses sont chargées de sucre et qu’à l’instar de la malbouffe, elles augmentent le risque de gagner du poids et de développer le diabète. Tous les experts en nutrition s’accordent évidemment pour dire que c’est l’eau qui est à privilégier. Mais lorsque le désir de boire quelque chose qui a plus de saveur prend le dessus, plusieurs cherchent un compromis, et optent alors pour des boissons contenant un édulcorant artificiel, communément appelé un faux sucre.

La vraie question, par contre, demeure : remplacer une boisson gazeuse régulière (qui contient du sucre) par une boisson diète (qui contient un édulcorant artificiel) aide-t-il à perdre du poids et à prévenir le diabète? Les données sont équivoques et contradictoires. Certaines analyses rapportent un bénéfice à la consommation d'édulcorants artificiels, alors que d'autres n'en ont pas trouvé.

Pourquoi ces résultats contradictoires ? En partie parce que toutes ces études n’évaluent pas nécessairement la même chose. Si, par exemple, des gens boivent régulièrement, tantôt des boissons régulières et tantôt des boissons diète, il sera difficile de distinguer l'impact de chacune sur leur santé. En partie aussi à cause de nos comportements: il est possible que pour certaines personnes, la consommation de boissons diète soit perçue comme une excuse qui donne le droit d'abuser de malbouffe.

Enfin, les édulcorants artificiels goûtent le sucre mais sans contribuer à une élévation du sucre dans le sang, ce qui pourrait amener le cerveau à aller chercher sa dose ailleurs.

Une méta-analyse récente publiée dans le British Medical Journal a bien essayé de résumer l'état de nos connaissances. Ses auteurs se sont penchés sur 56 études et leur conclusion est… que la qualité des données n'était pas très élevée. Les études étaient, en moyenne, petites, avec un très court suivi, ce qui limite la possibilité d'en tirer des conclusions valables.

Mais le message qui ressort néanmoins de cette méta-analyse est qu'il n'y a pas de bénéfice majeur attribué aux édulcorants artificiels en terme de perte de poids. Globalement, cette perte de poids, si elle existe, est petite et possiblement due à un bruit de fond statistique. Cependant, en comparant les individus qui présentaient un excès de poids à ceux qui avaient un poids santé, il est possible de voir un bénéfice plus net (une perte de poids de 4 kilos). Les chercheurs ne s’avancent toutefois pas à expliquer cette différence.

Verdict

Entre boissons régulières et diètes, on ne peut pas affirmer pour l’instant si l’impact sur la santé est différent. Mais pour un choix véritablement santé, rien ne bat l’eau.

Science

Couper plus d'arbres pour lutter contre les changements climatiques? Oui, mais…

LA SCIENCE DANS SES MOTS / Les récentes déclarations de Pierre Dufour, ministre des Forêts, de la Faune et des Parcs, ont suscité beaucoup d’incompréhension et un certain émoi auprès du public, des écologues et des environnementalistes.

Le ministre a en effet affiché son intention d’intensifier le rythme des coupes forestières, arguant que cela contribuerait en fait positivement à la lutte contre les changements climatiques. Couper des arbres pour séquestrer plus de gaz à effet de serre (GES) ? Une telle notion semble irrémédiablement contradictoire avec celle de planter des arbres, souvent mise de l'avant dans un but similaire, comme l’a fait, par exemple, le gouvernement fédéral .

Elle a pourtant un certain mérite, bien que les déclarations du ministre Dufour doivent être nuancées, et que des doutes puissent également être émis quant au bien-fondé d’une partie des méthodes envisagées.

Commençons par rappeler que le carbone est l’élément constitutif de base des organismes vivants. Il est présent en quantités particulièrement importantes dans les végétaux dits ligneux (rigides) tels que les arbres. La moitié de leur masse sèche est, en moyenne, constituée de carbone. Lorsque les végétaux croissent, ils ponctionnent le carbone dont ils ont besoin depuis l’atmosphère (où il se trouve principalement sous forme de CO2, un GES) pour former leur masse par photosynthèse.

Lorsque ces arbres meurent, ce carbone qui les compose est plus ou moins rapidement incorporé dans les sols, puis relâché à nouveau dans l’atmosphère lors du processus de décomposition. Dans la forêt boréale, les conditions froides et acides des sols font en sorte que la décomposition est lente, ce qui mène à l’accumulation d’un autre stock de carbone dans les sols forestiers, souvent encore plus important que celui des arbres.

Coupe forestière n'égale pas déforestation !

On comprend donc comment planter des arbres pour créer des nouvelles forêts permet naturellement de constituer un nouveau stock de carbone, dans la végétation et dans les sols, en en enlevant une quantité équivalente de l’atmosphère. Tant qu’on a la place pour le faire, planter de nouvelles forêts est donc souvent une bonne chose. Le processus inverse est la déforestation, laquelle est encore responsable d’environ 10 pour cent des émissions mondiales de GES, selon le dernier rapport du GIEC.

Il ne faut toutefois pas confondre déforestation et coupe forestière! On parle de déforestation lorsque la forêt est remplacée par un autre usage — bien souvent agricole — et ne reviendra donc pas une forêt dans un futur prévisible. Au niveau mondial, c’est un phénomène qui concerne principalement les forêts tropicales et équatoriales. Au Québec, la coupe ne détruit pas définitivement les forêts : naturellement ou avec un peu d’aide par de la plantation, la forêt va repousser, et donc reconstituer son stock de carbone en prélevant à nouveau du CO2 de l’atmosphère.

Science

Fumer du cannabis devant ses enfants: dommageable ou non?

LA SCIENCE DANS SES MOTS / Les organismes de santé publique mettent les parents en garde contre la consommation de cannabis en présence de leurs enfants. Or les parents qui en consomment disent que le cannabis les rend plus empathiques, plus patients et plus attentionnés envers leurs enfants. Qu'en est-il vraiment ?

Un an après la légalisation du cannabis au Canada, plusieurs questions demeurent sans réponse quant aux risques et bénéfices de l’utilisation de cannabis chez des sous-groupes particuliers de la population. Les enfants représentent l’un de ces groupes.

En effet, alors que les impacts de la consommation de cannabis ont été étudiés au cours de la grossesse et de l’adolescence, les enfants de 0 à 12 ans ont été largement négligés par la recherche scientifique.

Il est probable que cela s’explique par la position unanimement partagée que les enfants ne devraient, en aucun cas, consommer du cannabis. Or, même en n’étant pas directement exposés à la substance, le cannabis pourrait affecter leur développement.

En effet, comme la dernière enquête canadienne sur le cannabis  suggère que 19% des adultes âgés de 25 ans et plus consommeraient du cannabis, nous pouvons présumer que plusieurs consommateurs sont parents d’un jeune enfant. Que savons-nous aujourd’hui des effets de l’utilisation de cannabis sur l’aptitude des mères et des pères à répondre de manière sensible et adéquate aux besoins de leurs enfants ?

Science

Nouveau record de vitesse... chez les fourmis

PARIS — Les fourmis argentées du Sahara viennent de décrocher le titre de fourmis les plus rapides du monde avec des pointes à 0,855 m/s (ou 30 km/h !) selon une étude publiée la semaine dernière. Leur secret : un jeu de pattes étonnant.

«En calculant les vitesses maximales des insectes», Harald Wolf et Sarah Pfeffer, chercheurs de l'université d'Ulm en Allemagne, ont été «impressionnés de constater que les animaux atteignaient un incroyable 0,855 m/s, soit 108 fois leur propre longueur corporelle par seconde», selon un communiqué de la Company of Biologists, une association scientifique qui a commenté ces résultats.

Ces fourmis, les Cataglyphis bombycinas, étaient déjà célèbres pour leur capacité à arpenter les dunes à la recherche de leur futur repas même quand le sable atteignait les 60°C. Pour en savoir un peu plus, les deux chercheurs sont allés les filmer en pleine action dans le désert tunisien en 2015.

Outre définir ces vitesses record, les chercheurs ont découvert que les sprinteuses étaient plus rapides quand les températures étaient très chaudes. Au frais, à 10°C en laboratoire, leurs performances déclinent (0,057 m/s). De plus, la taille de leur pattes n'y est pour rien: elles sont 20% plus courtes que celles de leur cousines des marais salants tunisiens, les Cataglyphis fortis, selon l'étude publiée par le Journal of Experimental Biology.

Tout est dans la technique: car ces petites pattes (4,3/6,8 mm), elles sont capables de les agiter à des vitesses incroyables, pouvant effectuer jusqu'à 47 pas par seconde. Et si besoin, ces fourmis passent au «galop», propulsant simultanément leurs six pattes dans les airs, ne les reposant que 7 millisecondes. Le tout dans un mouvement parfaitement synchronisé. Cette technique pourrait leur «permettre de ne pas s'enfoncer trop profondément dans le sable mou», avance Harald Wolf.

Science

Une «file indienne» vieille de 480 millions d'années

BERLIN — Quand vous attendrez en file dans quelques semaines pour payer vos achats de Noël, souvenez-vous des trilobites. Des chercheurs affirment que des fossiles trouvés au Maroc portent à croire que la pratique de faire la file a fait surface il y a 480 millions d'années et qu'elle comportait possiblement un avantage évolutif.

L'étude publiée jeudi dans le journal Scientific Reports décrit des groupes de trilobites aveugles — aussi connus sous le nom d'Ampyx — qui sont tous tournés dans la même direction. Ils restaient apparemment en contact par l'entremise de leurs longues colonnes vertébrales. Les chercheurs originaires de France, de Suisse et du Maroc ont analysé les fossiles et conclu que les minuscules trilobites, qui ressemblent aux crabes de Moluques modernes, semblent avoir intentionnellement formé une file en se déplaçant sur le fond marin préhistorique.

Compte tenu de ce qu'ils ont observé, ajoutent les chercheurs, il est «improbable» que cette file soit attribuable à un comportement passif ou à l'effet du courant. Un des chercheurs français, le coauteur de l'étude Jean Vannier de l'Université de Lyon, a indiqué que les trilobites se rassemblaient possiblement en réponse à un stress environnemental ou à des fins de reproduction. Un comportement similaire est observé chez les membres modernes de la grande famille d'arthropodes à laquelle appartenaient les trilobites, comme les chenilles, les fourmis et les homards, qui se regroupent pour se protéger ou pour trouver des partenaires.

M. Vannier a expliqué que «vivre et se déplacer en groupe semble avoir rapidement présenté un avantage évolutif pour les animaux anciens».
Lucy McCobb, une paléontologue du Musée national de Galles qui n'a pas participé à l'étude, a dit que de telles «files» ont déjà été observées chez des Ampyx fossilisés, mais que les auteurs de cette étude «défendent solidement l'idée d'un alignement intentionnel des trilobites en réponse à un stimulus».

Selon M. Vannier, cette observation appuie l'idée selon laquelle des comportements collectifs, comme faire la file, ont fait surface environ au moment où les animaux ont acquis des systèmes nerveux et des organes sensoriels sophistiqués. Ses collègues et lui affirment que l'examen de fossiles chinois vieux de 520 millions d'années pourrait révéler qu'un comportement du genre a commencé encore plus tôt.

Science

Qantas teste un vol New York-Sydney de 19 heures sans escale

SYDNEY — La compagnie australienne Qantas a testé ce week-end les limites humaines en faisant pour la première fois voler, à des fins expérimentales, un ultra-long-courrier entre New York et Sydney, soit un trajet de 19 heures sans escale.

Le vol expérimental QF7879 a voyagé pendant exactement 19 heures et 16 minutes. Il s'agit du premier d'une série de trois vols au cours desquels des chercheurs vont évaluer l'impact physique et émotionnel sur les passagers d'un tel marathon aérien, alors que les ultra-long-courriers sont de nouveau plébiscités par les compagnies grâce à une meilleure efficacité des avions en termes de carburant.

En comptant l'équipage, seule une quarantaine de personnes, essentiellement des employés de Qantas, étaient à bord du Boeing 787-9 lors de son décollage de New York vendredi. Après avoir survolé l'Amérique et le Pacifique, l'avion a atterri dimanche matin en Australie.

Le nombre de passagers a été limité pour minimiser le poids et permettre à l'appareil de voler environ 16 000 km sans être ravitaillé. Aucune autre compagnie aérienne n'a réalisé cette prouesse, selon le directeur général de Qantas, Alan Joyce, qui la présente comme «la dernière frontière de l'aviation».

Selon le site spécialisé flightradar24.com, l'appareil pesait ainsi 233 tonnes au décollage, dont 101 tonnes de kérosène.

Quatre pilotes se sont relayés aux commandes durant le vol.

Le plus long trajet aérien commercial au monde est une liaison entre New York et Singapour lancée en 2018 par Singapour Airlines, qui dure 18h30 selon le site de la compagnie.

Décalage horaire

Des chercheurs de deux universités australiennes étaient à bord du vol de Qantas pour observer la façon dont les passagers dorment et s'alimentent, et surveiller leur niveau de mélatonine, «l'hormone du sommeil». Les pilotes portaient également un capteur qui mesure l'activité de leur cerveau et leur état d'alerte. L'impact du décalage horaire était également observé de près, car il y a 15 heures de différence entre New York et Sydney.

«Les connaissances scientifiques fondamentales du rythme circadien montrent que, plus la différence horaire est grande entre les lieux de départ et d'arrivée, plus les gens ressentent les effets du décalage horaire, qui est aussi plus fort s'ils volent vers l'est plutôt que vers l'ouest, explique à l'AFP Stephen Simpson, professeur à l'Université de Sydney. Mais nous savons aussi que les gens réagissent très différemment au décalage horaire, et il faut davantage de recherches sur les facteurs de décalage horaire et de fatigue associée au voyage, et ce, afin de réduire l'impact des vols long-courrier.»

Qantas avait lancé l'an dernier la première liaison commerciale directe entre l'Australie et la Grande-Bretagne, avec un vol entre Perth et Londres, qui dure 17h45 selon le site de la compagnie. Cela raccourcissait considérablement la fameuse «Route Kangourou», qui à son lancement en 1947, mettait quatre jours et neuf escales entre Sydney et Londres.

Préoccupations des syndicats

La compagnie australienne doit d'ailleurs prochainement tester un Londres-Sydney. Elle devra décider ensuite si ces ultra-longs-courriers sont économiquement viables. Mais elle pourrait faire face à des objections de syndicats préoccupés de la conformité entre la longueur de ces trajets et les normes de sécurité. L'Australian and International Pilots Association (AIPA), qui représente les pilotes de Qantas, a estimé que ces vols expérimentaux ne «donnaient qu'une quantité de données limitées qui ne reflèteront pas les conditions d'un vol réel».

Shane Loney, un responsable de l'AIPA, a exigé une étude à long terme sur les impacts de ces vols sur l'équipage. «Les pilotes s'inquiètent de savoir s'ils auront sur ces ultra-longs-courriers le repos d'une qualité suffisante qui doit leur permettre d'assurer une performance optimale et ils mettent en garde quant au déroulement des opérations initiales pour s'assurer qu'il n'y ait pas de conséquence imprévue.»

Un porte-parole de Qantas a affirmé dans un courriel que ces vols expérimentaux n'étaient qu'un des aspects des recherches en cours sur la viabilité de ces vols. M. Joyce a indiqué que Qantas n'avait pas encore décidé s'il choisirait Airbus ou Boeing pour fournir les appareils qui seraient utilisés pour ces vols, s'ils sont officiellement lancés.

Science

Viande rouge : ce dont on n'a pas parlé

LA SCIENCE DANS SES MOTS / Il semble de plus en plus difficile de trouver des conseils alimentaires précis et cohérents. Par exemple, une étude largement publicisée récemment affirmait que les gens n'ont pas besoin de réduire leur consommation de viande rouge et de viande transformée pour demeurer en bonne santé.

Les avis scientifiques se sont divisés, certains experts qualifiant l'étude d'évaluation « rigoureuse », d'autres la remettant en question. L'étude ne serait pas si indépendante.

Les sceptiques de la science de la nutrition pourraient citer de nombreux exemples similaires d'opinions contradictoires, par exemple sur les bienfaits ou les dangers des gras saturés ou des suppléments nutritionnels. De telles contradictions ne font que renforcer la méfiance du public à l'égard de la recherche en nutrition.

Les conseils fiables en matière d'alimentation sont importants. Le hic: ils s'appuient habituellement sur des recherches scientifiques menées auprès de grands groupes de populations. Mais leurs résultats peuvent masquer d'énormes variations du risque entre les individus au sein de ces populations.

La fin du «one size fits all»

Une étude qui ne différencie pas les personnes à risque élevé dans une population générale à faible risque peut produire une estimation faussée du risque global. Elle rassure également, à tort, les personnes à risque élevé que le leur est le même que celui de tous. Mais une politique nutritionnelle universelle n'a pas plus de sens que de calculer la pointure moyenne d'une population et de recommander que tout le monde porte cette pointure. Même les statisticiens conviennent que «la moyenne est une abstraction. La réalité est une variation».

Une simple campagne de santé publique est justifiée si la force de l'association entre cause et effet est élevée pour l'ensemble de la population, comme c'est le cas pour le tabagisme et le cancer du poumon. Mais la plupart des nutriments et des aliments n'ont qu'une faible association avec le risque lorsqu'ils sont évalués sur l'ensemble d'une population. Ce sont ceux qui font partie de sous-groupes à haut risque qui sont les plus concernés.

Par exemple, les personnes en surpoids ou obèses ont tendance à réagir différemment aux autres. Une alimentation riche en glucides augmente le risque de maladies coronariennes, mais elle est beaucoup moins préoccupante pour les personnes minces.

Science

Nettoyage du plastique dans le Pacifique : pas encore tout-à-fait ça...

La barrière flottante de 600 mètres de long et de 3 mètres de haut censée nettoyer l’océan de ses déchets de plastique a finalement réussi à ramasser un peu de plastique. Mais la marche est haute pour une invention qui, après sept ans, est encore loin d’avoir fait la preuve de son efficacité.

La compagnie à but non lucratif Ocean Cleanup, fondée par le Néerlandais Boyan Slat, qui n’était encore qu’un adolescent il y a sept ans, était fière d’annoncer le 2 octobre, photo à l’appui, sa première «récolte» de déchets de plastique, quelque part dans l’immense «grande zone d’ordures du Pacifique» (Great Pacific Garbage Patch) située entre la Californie et Hawaï. Le groupe n’a toutefois pas précisé quelle quantité de déchets il avait récolté, alléguant que cette information n’était «pas pertinente».

Le but de l’expérience était de prouver que le système, un genre de bouée géante traînée par un bateau, pouvait ramasser des déchets: une première expérience, l’hiver dernier, s’était soldée par un échec. La nouvelle version, plus stable que la précédente, est partie du port de San Francisco en septembre.

Mais l’idée fait face à des océans de scepticisme depuis sept ans: d’une part, il reste à prouver que cette structure puisse tenir le coup longtemps, face aux assauts violents des courants océaniques et des plus gros déchets. D’autre part, le concept aurait beaucoup plus de chances de faire une différence s’il était appliqué à l’embouchure des grands fleuves du monde, soit avant que la majorité des déchets de plastique ne se déversent dans les océans.

Sans compter qu’au milieu de l’océan, une fois les déchets récoltés, il faut qu’un bateau les remorque jusqu’au port le plus proche, à des centaines sinon des milliers de kilomètres.

Ce qu’on appelle erronément une «île» ou un «continent» de plastique, est en fait un territoire marin de plus d’un million et demi de kilomètres carrés où flotteraient 2000 milliards de morceaux de plastique de toutes les tailles totalisant 80 000 tonnes.

Science

«On ne migrera pas» vers d'autres planètes, prévient le prix Nobel Michel Mayor

MADRID — Chasseur d'exoplanètes, Michel Mayor, lauréat la semaine dernière du Prix Nobel de physique, a averti qu'il ne fallait pas compter un jour sur une migration de l'humanité vers une autre planète. Le chercheur suisse s'exprimait en marge d'une conférence près de Madrid.

Q : Quelles recherches ont été récompensées par ce Nobel ?

R : «Voici 24 ans, avec un de mes collègues (Didier Queloz, distingué avec lui), on a découvert la première planète qui tournait autour d'une autre étoile (que le Soleil). C'était une très vieille question qui était débattue par les philosophes: est-ce qu'il existe d'autres mondes dans l'Univers ? Depuis lors, on en a découvert près de 4000 (exoplanètes) ou plus. On cherche des planètes qui sont le plus proche (de nous), qui pourraient ressembler à la Terre. Nous avons avec mon collègue démarré cette quête des planètes, on a montré que c'était possible de les étudier.»

Q : Y a-t-il de la vie ailleurs dans l'univers ?

R : «Dans la voie lactée, on est sûr qu'il y a énormément de planètes rocheuses avec une masse similaire à la Terre à une distance telle (de leur étoile) que la température est adéquate pour que la chimie de la vie se développe, on ne sait rien de plus. Personne n'est capable de donner une probabilité à la vie ailleurs. Certains scientifiques disent que si toutes les conditions sont réunies, alors la vie va émerger d'elle-même, une sorte d'émergence naturelle des lois de l'univers. D'autres disent : Non, non, c'est pas vrai, c'est beaucoup trop compliqué. On ne sait rien ! La seule manière de faire, c'est développer les techniques qui nous permettent de détecter la vie à distance. C'est à la prochaine génération de répondre à cette question !»

Q : L'humanité pourra-t-elle migrer vers une autre planète ?

R : «Si on parle des planètes extra-solaires, que les choses soient claires: on ne migrera pas là-bas. Ces planètes sont beaucoup, beaucoup trop loin. Même dans un cas très optimiste d'une planète habitable pas trop loin, disons à quelques dizaines d'années lumière, ce qui est tout petit, le voisinage, le temps pour aller là-bas est considérable. Ca se chiffre en centaines de millions de jours avec les moyens actuels. Prenons soin de notre planète ici, elle est très belle et encore tout à fait habitable. (...) Il faut tuer toutes les déclarations du type +Nous irons un jour sur une planète habitable si la vie n'est plus possible sur Terre+. C'est complètement fou.»

Science

Quatre limites des Nobels

DÉTECTEUR DE RUMEURS / Depuis lundi, les trois Nobel de science — médecine, chimie et physique — ont récompensé le travail accompli par une poignée de sommités. Toutefois, les Nobel ont beau être les prix scientifiques les plus prestigieux aux yeux du public, ils n’en sont pas moins qualifiés, à intervalles réguliers, d’anachroniques, d’inadaptés à la façon de faire la science… et de sexistes. Ces critiques sont-elles justifiées ? Le Détecteur de rumeurs survole quatre de ces critiques.

Une vision passéiste de la science : vrai

Jusqu’au début du XXe siècle, il était possible à une grande découverte d’être le fruit d’un seul scientifique travaillant en solitaire. Aujourd’hui, un article scientifique risque plutôt d’être cosigné par plusieurs dizaines de personnes, voire des milliers, comme celui sur la découverte du boson de Higgs, qui, en 2015, comportait 5 154 signatures. Pourtant, la règle d’or des Nobel de science est restée la même depuis 1901 : chaque prix ne peut être attribué qu’à un maximum de trois personnes.

«C’est hautement artificiel et complètement en désaccord avec la façon dont la science se fait aujourd’hui», écrivait en 2013 le physicien américain Sean Carroll, auteur d’un livre sur le boson de Higgs.

Ces prix apportent aux trois gagnants « une attention disproportionnée » par rapport à leur contribution réelle à des recherches qui, en réalité, ont pu s’étaler sur des décennies et impliquer de nombreuses équipes, contestait en éditorial la revue Nature… en 1975.

La controverse a resurgi en 2017 : le Nobel de physique a été décerné à trois des chefs de file de la longue quête qui avait conduit en 2015 à la découverte des ondes gravitationnelles — une découverte dont les résultats ont été signés par plus de 1 000 chercheurs associés à l’observatoire international LIGO. Et cette semaine, bien que les Suisses Michel Mayor et Didier Queloz soient bel et bien les deux découvreurs de la première exoplanète «officielle», en octobre 1995, une équipe de cinq chercheurs dirigée par l’Américain David Latham avait aussi découvert un mystérieux «compagnon» à l’étoile HD 114762 en 1989.

Certains proposent que les Nobel de science s’inspirent du Nobel de la paix, qui peut être remis à des institutions (Amnistie internationale, les Casques bleus, Médecins sans frontières, etc.) autant qu’à des individus.

Des spécialités ignorées : vrai

Nobel de médecine, de chimie et de physique : telles étaient les grandes sciences, lorsqu’ont été décernés les premiers Nobel. Or, en 1901, la génétique et la neurologie n’existaient pas. Cette dernière fait donc partie des grandes oubliées, au même titre que la géologie, l’océanographie, la climatologie, les mathématiques, la botanique ou l’écologie. La génétique s’en sort beaucoup mieux parce que plusieurs de ses percées ont hérité du Nobel de médecine… ou de chimie : protéine G (2012), catalyse (2010), ribosome (2009), protéine fluo (2008)…

Les mathématiciens en ont pris leur parti, eux qui qualifient la Médaille Fields, créée en 1936, de «Nobel des mathématiques» : des travaux en mathématiques n’ont pratiquement jamais mené à un des trois Nobel de science… quoique plusieurs mathématiciens ont gagné un Nobel d’économie.  

Des appels à réformer les Nobel de science ont été plusieurs fois lancés. Des défenseurs des sciences de l’environnement, par exemple, déplorent qu’un prix créé à l’origine pour souligner une contribution «au bien-être de l’humanité», les laisse sur le carreau.

Mais ces appels semblent tomber dans des oreilles de sourds. Réagissant à une lettre ouverte écrite par 10 scientifiques — dont un Nobel — en 2008, l’historien des sciences Robert Marc Friedman, de l’Université d’Oslo (Norvège) déclarait : «la Fondation Nobel tient à conserver son image d’imperméabilité aux influences extérieures.»

Des prédictions presque toujours erronées : vrai

Chaque année, les prédictions de la division scientifique de la firme Thomson Reuters — devenue en 2016 Clarivate Analytics — sur les gagnants des Nobel font le tour des médias spécialisés pendant les jours précédents. Et chaque année, ces prédictions s’avèrent presque toutes fausses.

Il en a été ainsi cette semaine : aucun des cinq gagnants potentiels pointés par Clarivate Analytics pour le Nobel de médecine n’a reçu un appel téléphonique de Stockholm pour lui annoncer la bonne nouvelle. Pas plus qu’aucun des trois «favoris» au Nobel de physique, ni aucun des cinq du Nobel de chimie.
Thomson Reuters se livre à cet exercice depuis 2002 avec des résultats douteux.

L’analyste principal de la firme, David Pendlebury, se targue pourtant d’avoir prédit correctement (en incluant les Nobel d’économie) une cinquantaine de personnes depuis 2002. Le problème est qu’ils ont rarement été prédits la bonne année et qu’ils ont généralement remporté le Nobel après avoir été prédits pendant quelques années d’affilée…

Ces prévisions de Thomson Reuters s’appuient sur la mesure dite du facteur d’impact — c’est-à-dire le nombre de citations recensées d’un chercheur dans la littérature scientifique — ainsi que sur l’influence qu’a eue une découverte. Mais comme les lauréats sont souvent choisis pour leur contribution à des percées survenues il y a plus de 20 ans, voire plus de 30 ans, la liste s’allonge…

Les femmes sous-représentées : vrai

Sur les 9 scientifiques nobélisés cette semaine, aucune femme.
Ce qui, statistiquement, n’est pas étonnant : entre médecine, chimie et physique, la proportion des gagnantes depuis 1901 est d’à peine 3 %.

Sur les huit lauréats de l’an dernier, il y avait certes deux femmes, la Canadienne Donna Strickland (physique) et l’Américaine Frances H. Arnold (chimie). Mais aucune femme n’avait été sur la liste en 2017 et 2016, et une seule en 2015, la Chinoise Youyou Tu, en médecine.

En tout, si on ajoute les Nobel de la paix, de littérature et d’économie, ce sont 52 femmes qui ont décroché une des récompenses depuis 1901. Mais de ce nombre, 31 sont en «littérature» ou «paix», et une en économie, ce qui n’en laisse que 20 dans les trois catégories scientifiques, soit 3 %.

On peut tout au plus sentir une légère progression si on n’analyse que les Nobel de médecine : une seule gagnante avant 1975, puis 5 entre 1975 et 2000, puis 6 depuis 2001. Mais le palmarès est déprimant en physique, avec trois lauréates en 119 ans (sur 210 gagnants) : Donna Strickland, de l’Université Waterloo, en 2018, Marie Goeppert Mayer en 1963 et Marie Curie en 1903.

Ces dernières années, des scientifiques et des blogueurs ont plusieurs fois remis le problème sur le tapis. L’une des «candidates» les plus souvent mentionnées, l’astrophysicienne Vera Rubin, dont le travail a contribué à la découverte de la matière noire cosmique, est décédée en décembre 2016. Et un Nobel ne peut pas être remis à titre posthume.

Quelques jours après son décès, le magazine pour adolescentes Teen Vogue avait même rendu hommage à Vera Rubin, côte à côte avec une autre «femme des étoiles» disparue en 2016, l’actrice Carrie Fisher de Star Wars.

Au terme d’une compilation publiée plus tôt cette semaine, le magazine Chemistry World concluait avec amusement que «le lauréat moyen du Nobel de chimie» est un homme de 57 ans, appartenant à une institution de Californie, dont le travail qui lui vaut cette récompense est paru il y a 16 ans… et qui s’appelle Richard, John ou Paul.

En réponse aux critiques récurrentes, le comité Nobel avait annoncé l’an dernier une initiative qui, pour cette institution, était inédite : que chaque personne invitée à soumettre des candidatures prenne désormais en considération la place des femmes et la «diversité géographique». On ignore si cet appel a eu un impact :  les règles de l’Académie royale de Suède exigent la confidentialité des mises en nomination et des délibérations pendant une période de 50 ans.

Ce texte est une remise à jour d’un article initialement paru en octobre 2017

Science

«Une grosse bouchée pour l’humanité»: de la viande imprimée dans l’espace

MOSCOU - La perspective de cosmonautes savourant un rôti dans l’espace est devenue un peu moins théorique après la création de viande à bord de la Station spatiale internationale (ISS) à l’aide d’une imprimante 3D.

L’imprimante utilisée a permis de produire artificiellement des tissus de bœuf, de lapin et de poisson en utilisant des champs magnétiques en microgravité, a expliqué mercredi une entreprise russe de technologies médicales partie prenante à l’expérience.

Les tests ont été menés en septembre par le cosmonaute Oleg Skripotchka au sein du segment russe de l’ISS.

L’imprimante 3D utilisée est de fabrication russe, tandis que les cellules biologiques ont été fournies par des compagnies américaines et israéliennes.

Selon les meneurs du projet, il s’agit de la première fois qu’une petite quantité de viande artificielle est créée en conditions d’apesanteur.

«C’est une petite bouchée pour l’homme, mais une grosse bouchée pour l’humanité», a déclaré lors d’une conférence de presse Ioussef Khessouani du laboratoire moscovite 3D Bioprinting Solutions, détournant la célèbre phrase de Neil Armstrong sur la Lune.

«C’est pour nous une première expérience de collaboration scientifique internationale dans l’espace», a-t-il ajouté.

Ce laboratoire a été fondé par Invitro, une entreprise pharmaceutique russe. Le projet a été en partie financé par l’agence spatiale russe Roskosmos.

«Il s’agit véritablement d’une percée à la fois pour Roskosmos et pour la Russie dans son ensemble», a affirmé Nikolaï Bourdeïny, un haut responsable du secteur spatial.

+

Science

Les pères de la batterie lithium-ion lauréats du Nobel de chimie

STOCKHOLM - Le prix Nobel de chimie a mis à l’honneur mercredi un Américain, un Britannique et un Japonais, inventeurs de la batterie au lithium-ion qui équipe téléphones intelligents et voitures électriques et dont la demande explose face à l’urgence climatique.

Le Nobel récompense l’Américain John Goodenough, qui devient à 97 ans le plus vieux lauréat nobélisé de l’histoire, le Britannique Stanley Whittingham, né en 1941, et le Japonais Akira Yoshino, 71 ans.

«Ce type de batterie légère, rechargeable et puissante est maintenant utilisée partout», a indiqué l’Académie suédoise royale des sciences qui décerne le prix.

«Elle peut stocker des quantités significatives d’énergie solaire et éolienne, ouvrant la voie à une société libérée des énergies fossiles», a-t-elle ajouté.

Dans le sillage des crises pétrolières des années 1970, Stanley Whittingham, aujourd’hui professeur à la Binghamton University, dans l’État de New York, se met en quête de sources d’énergie non fossiles. C’est ainsi qu’il découvre une méthode pour produire de l’énergie à partir du lithium, un métal si léger qu’il flotte sur l’eau.

John Goodenough, professeur à l’université du Texas à Austin, fait ensuite le pari d’augmenter les propriétés de l’innovation si l’énergie est produite à partir d’oxyde métallique au lieu de disulfure. En 1980, il démontre que la combinaison d’oxyde de cobalt et d’ions de lithium peut produire jusqu’à 4 volts. À partir de ces découvertes, Akira Yoshino, 71 ans, crée la première batterie commerciale, en 1985.

Plus de trois décennies plus tard, la demande de batteries au lithium-ion explose notamment avec l’essor du marché des véhicules électriques dans le contexte urgent du réchauffement climatique.

«Je pense que le changement climatique est un défi très grave pour l’humanité, et les batteries au lithium-ion peuvent stocker de l’électricité», a réagi Akira Yoshino, professeur à l’université Meijo de Nagoya au Japon, interviewé après l’annonce de son prix.

+

Science

Du Big Bang aux exoplanètes: le Nobel de physique à deux Suisses et un Canado-Américain

STOCKHOLM — Le Nobel de physique a distingué mardi trois cosmologues, le Canado-Américain James Peebles, qui a mis ses pas dans ceux d’Einstein pour éclairer les origines de l’univers, et les Suisses Michel Mayor et Didier Queloz qui, les premiers, ont révélé l’existence d’une planète en dehors du système solaire.

Le prix va pour moitié à James Peebles pour ses «découvertes théoriques en cosmologie physique» et pour l’autre moitié conjointement à Michel Mayor et Didier Queloz pour leur «découverte d’une exoplanète en orbite autour d’une étoile de type solaire», a annoncé Göran Hansson, secrétaire général de l’Académie royale des sciences de Suède.

Les trois chercheurs, astrophysiciens et astronomes, ont contribué à «une nouvelle compréhension de la structure et de l’histoire de l’univers». «Leurs travaux ont changé à jamais nos conceptions du monde», a ajouté l’académie.

Les travaux de James Peebles nous ramènent à «l’enfance de l’univers», à travers l’observation des rayons lumineux apparus 400.000 ans après le Big Bang - survenu lui il y a 14 milliards d’années - et qui ont voyagé jusqu’à nous comme pour nous en porter témoignage.

«Ses travaux nous ont révélé un univers dont seulement 5% du contenu est connu : la matière composant les étoiles, les planètes, les arbres - et nous. Le reste, soit 95%, est de la matière noire inconnue et de l’énergie noire. C’est un mystère et un défi pour la physique moderne», souligne l’académie.

Science

Le rôle de la foresterie dans la séquestration du carbone

LA SCIENCE DANS SES MOTS / Ces derniers jours, plusieurs journalistes ont traité du rôle des forêts dans la séquestration du carbone et les commentaires de mon entourage, à la suite de la lecture de ces articles, m’incitent aujourd’hui à apporter des précisions qui pourront être utiles à tous.

En raison de leur superficie, les forêts peuvent agir comme de puissants capteurs OU émetteurs de carbone, affectant le bilan du pays. D’un côté, les arbres emmagasinent du carbone pendant leur croissance. De l’autre, les arbres émettent du carbone lorsqu’ils meurent et se décomposent à la suite de vents violents, d’un feu, d’une épidémie d’insectes ou simplement de vieillesse. Ce carbone est conservé dans les arbres et le sol forestier.

La foresterie peut donc contribuer à améliorer le bilan carbone du pays en réduisant la susceptibilité des forêts aux épidémies d’insectes et aux incendies, et en augmentant la vitesse de croissance et le volume des arbres, tout en s’assurant de maintenir la biodiversité sur le territoire. Puisque la majorité de notre territoire est déjà couvert de forêts, il faudra prioriser l’amélioration de la croissance des forêts existantes à l’aide de travaux sylvicoles, bien que de nouvelles forêts pourront être créées à certains endroits.

Ce n’est pas tout. Lorsque les arbres sont récoltés pour être transformés en produits forestiers, une portion de ceux-ci emmagasine du carbone sur une plus longue période de temps. Le gain est encore plus grand si les produits du bois remplacent des matériaux de construction dont la production nécessite davantage de combustibles fossiles.

Actuellement, les scientifiques travaillent à déterminer le niveau de carbone réellement séquestré par ces efforts, mais une marge d’erreur sera toujours présente en raison de la complexité des systèmes en cause.

Devant la menace des changements climatiques, le rôle des ingénieurs forestiers est ainsi appelé à changer rapidement. Ceux-ci doivent à présent considérer la séquestration de carbone dans la planification des stratégies d’aménagement forestier.

Par exemple, l’actuelle épidémie de la tordeuse des bourgeons de l’épinette qui frappe l’Est du Canada représente une menace et une opportunité. Si rien n’est fait, les forêts de conifères détérioreront le bilan carbone du pays. Cependant, si ces arbres sont récoltés et transformés en produits forestiers, et si les aires mal régénérées sont reboisées, alors le bilan carbone sera amélioré. Les essences plantées devront cependant être adaptées aux futures conditions du climat et aux insectes exotiques qui menacent nos forêts. Ainsi, la foresterie traditionnelle pourra jouer un rôle important pour lutter contre un problème bien contemporain.

Avec un soutien politique et financier plus important, davantage d’efforts pourront être faits pour améliorer le bilan carbone et la résilience de nos forêts face aux changements climatiques. Cet exercice aura même un effet bénéfique sur les entreprises de services forestiers au cœur des milieux ruraux et contribuera du même coup aux approvisionnements de l’industrie forestière. Il n’y a pas de mal à faire d’une pierre trois coups (si les pratiques forestières respectent la science et les règles de l’art) !

Science

Projet de loi 34 : au-delà de la question des tarifs

LA SCIENCE DANS SES MOTS / Les discussions en commission parlementaire sur le projet de loi 34, qui vise à soustraire Hydro-Québec à la supervision de la Régie de l’énergie pour les 5 prochaines années, ont largement porté sur la question des tarifs. Pourtant, d’autres enjeux centraux sont soulevés par ce projet de loi, des enjeux qui pourraient avoir un impact beaucoup plus grand sur Hydro-Québec, le gouvernement du Québec et l’ensemble de la population.

Avant de présenter ces enjeux, il est utile de comprendre l’origine de cette loi, qui émane d’une frustration grandissante — et en partie légitime — d’Hydro-Québec face aux décisions de la Régie.  En effet, le secteur de l’électricité, qui s’inscrit dans le secteur plus large de l’énergie, est soumis à des perturbations majeures depuis une quinzaine d’années, avec l’arrivée des gaz de schiste, la fermeture des centrales au charbon, la décarbonisation de l’électricité, les difficultés à faire approuver les infrastructures de transport énergétiques, les technologies de l’information et la chute rapide des prix des énergies renouvelables intermittentes.

Si le Québec a été relativement peu affecté jusqu’à présent par ces perturbations, celles-ci ont déjà touché les marchés qui l’entourent, affectant les contrats à l’exportation, et devraient s’implanter sur notre territoire dans les années qui viennent. Afin de gérer cette transformation, Hydro-Québec doit revoir son offre de services, intégrer de nouvelles technologies et tester des modèles de tarifications novateurs, à l’instar de ce qu’il se fait ailleurs sur la planète.

C’est dans ce contexte de changement que le premier enjeu lié au projet de loi 34 s’inscrit : plutôt que d’adopter une approche proactive et prospective qui permettrait au Québec de se préparer aux changements inévitables qui guettent le secteur de l’électricité, la Régie a fait barrage à plusieurs des propositions d’Hydro-Québec. Elle a aussi échoué à considérer des approches permettant de réagir rapidement aux perturbations qui affectent le secteur, se cantonnant largement à appliquer des analyses dépassées qui ne considèrent pas l’ampleur de la révolution en cours dans le secteur de l’électricité, voire celui de l’énergie au grand complet.

Devant un tel comportement, pour toute réplique, Hydro-Québec a choisi la voie facile : obtenir du gouvernement qu’il la soustraie à ses obligations de reddition de compte, pour lui donner la marge de manœuvre que la Régie lui refuse afin d’innover dans ses offres de services, ses programmes et ses façons de faire. Cette liberté peut sembler alléchante. Toutefois, l’absence de reddition facilitera le repli d’Hydro-Québec sur elle-même; qu’il soit réel ou perçu, ce repli alimentera la méfiance chez les consommateurs et déplacera sur la scène politique tout mécontentement, ce qui risque de polariser la population face aux transformations qui s’imposent.

L’impact des changements proposés par ce projet de loi ne s’arrêtera pas aux frontière du Québec, ce qui soulève un deuxième enjeu crucial :  la capacité du gouvernement Legault d’augmenter les exportations d’électricité.  En effet, les États américains possèdent généralement des régies très fortes et considèrent celles-ci comme essentielles pour assurer la transparence des tarifs. En soustrayant ses tarifs à l’examen de la Régie, Hydro-Québec s’expose donc à des accusations de dumping de la part de ses opposants, ce qui risque de retarder et même de bloquer certains projets présentement dans les cartons.

Le statu quo dans les rapports entre la Régie de l’énergie et Hydro-Québec n’est plus tenable et le Ministre Julien doit agir. Toutefois, la solution proposée dans ce projet de loi représente non seulement un recul dans la transparence et la bonne gouvernance, mais comporte aussi des inconvénients majeurs pour la population du Québec.

Plutôt que d’affaiblir la Régie de l’énergie pour laisser le champ libre à Hydro-Québec, le gouvernement devrait s’engager dans une réforme visant à améliorer sa pertinence et sa capacité à prévoir et à soutenir les changements qui s’imposent dans les systèmes énergétiques. Avec un peu de volonté, cette transformation pourrait s’accomplir rapidement et assurer le positionnement du Québec comme chef de file dans la modernisation du secteur de l’électricité en Amérique du Nord, pour le bénéfice du plus grand nombre.

Science

Un accélérateur de particules pour «lire» des papyrus vieux de 2000 ans

DIDCOT — Carbonisés lors de l'éruption du Vésuve, des papyrus romains ont gardé leurs secrets pendant près de 2000 ans. Des scientifiques tentent de déchiffrer ces documents «fragiles comme des ailes de papillon» à l'aide d'un accélérateur de particules.

Conservés à l'Institut de France à Paris, ces papyrus antiques du site archéologique d'Hercunalum, près de Naples, ont fait le voyage jusqu'au centre de l'Angleterre pour être déroulés virtuellement. «L'idée qu'on se fait d'un parchemin est que l'on peut simplement le dérouler et le lire, mais ces papyrus ne peuvent pas être déroulés parce que la carbonisation les a rendus extrêmement fragiles», explique à l'AFP le professeur Brent Seales, qui travaille depuis une vingtaine d'années au développement de techniques non invasives de déchiffrage.

Son outil : un synchrotron, un anneau de 500 mètres de circonférence où des électrons tournent à très grande vitesse et émettent une sorte de rayon X très puissant qui permet de traverser de la matière. Baptisé Diamond Light Source, il produit une lumière dix milliards de fois plus lumineuse que le soleil et fonctionne comme un microscope géant, dont les données sont ensuite décryptées informatiquement à l'aide de l'intelligence artificielle.

«Villa des papyrus»

Les rouleaux furent découverts entre 1752 et 1754, lors des fouilles du site d'Herculanum, près de Naples. Contrairement à Pompéi, ravagé par la lave lors de l'éruption du Vésuve en 79 après Jésus-Christ, Herculanum fut frappé par une nuée ardente, qui recouvrit la ville de cendres. Sous cette épaisse couche, les maisons étaient intactes. L'une d'elles, la «Villa des papyrus», abritait une importante bibliothèque de plus de 1800 rouleaux de textes, conservés par les cendres mais carbonisés, impossibles à dérouler.

En 1802, six de ces rouleaux sont donnés par le roi de Naples à Napoléon Bonaparte, qui les confie à la bibliothèque de l'Institut de France à Paris, avec pour mission de les lire. Mais la matière est ultra friable, et les deux premiers essais, en 1817 puis en 1877, échouent. Les rouleaux sont renvoyés à Naples, où, en 1986, une méthode de déroulement chimique permet d'en détacher un, en plusieurs centaines de petits fragments, «très difficiles à lire» en raison de la nature de l'encre, raconte Yoann Brault, ingénieur d'études à la bibliothèque de l'Institut.

Dans le synchrotron anglais, des rayons sont envoyés sur les échantillons et doivent permettre de créer une image à très haute résolution en trois dimensions «sans avoir à détruire, ouvrir ou manipuler les parchemins, a expliqué le professeur, aussi directeur de l'initiative de restauration numérique à l'Université du Kentucky. Le processus de reconstruction, hautement informatisé, nous donne l'information de ce qui se trouvait à l'intérieur.»

Transporter les échantillons depuis Paris jusqu'en Angleterre présentait «certains risques», a reconnu Francoise Berard, directrice de la bibliothèque de l'Institut. «Mais nous tenions évidemment à aider à la découverte du contenu», a-t-elle ajouté, assurant avoir pris «un maximum de précautions» pour ces papyrus «fragiles comme des ailes de papillon».

Des textes épicuriens

Avant le professeur Seales, d'autres scientifiques ont déjà utilisé des techniques non invasives pour déchiffrer ces documents. En 2014 en France, un chercheur du CNRS, Daniel Delattre, avait déjà pu lever le voile sur le contenu de ces papyrus à l'aide d'une nouvelle technique permettant de déchiffrer les textes sans les dérouler, la tomographie X en contraste de phase. On a ainsi pu reconnaître quelques lettres grecques, de la plume d'un philosophe épicurien, Philodème de Gadara.

«Ceci a confirmé que ces rouleaux contiennent pour l'essentiel des écrits grecs, chez une personne (Pison, le beau-père de Jules César, NDLR) intéressée par la philosophie épicurienne, analyse Michel Zink, secrétaire perpétuel de l'Académie des Inscriptions et Belles lettres. Contrairement à la philosophie stoïcienne, dont les textes, jugés compatibles avec le christianisme, ont été recopiés au Moyen-Age, l'épicurisme n'était pas en odeur de sainteté, et ses textes ont rarement été conservés.»

«C'est pourquoi ces rouleaux présentent, sur le fond, une telle importance"», conclut le médiéviste, selon qui «on peut espérer réussir à lire des phrases entières, et peut-être un jour, un texte entier».

Science

Le verre à moitié vide et à moitié plein de la viande rouge

BLOGUE / Une journée, la viande rouge est mauvaise pour la santé. Le lendemain, c'est rendu bon. Le surlendemain, c'est le vin qui est bon pour la santé. Et le jour d'après, ça vous tue.

Si je me fie à ce que je vois passer sur mes réseaux sociaux (non, ce n'est pas très représentatif, mais dans ce cas-ci, mon expérience me dit que ça ne doit pas être très loin de la vérité), c'est pas mal sur ce mode que tout un chacun a réagi à la série d'études parue lundi dans les Annals of Internal Medicine au sujet de la viande rouge.

Et il est vrai que l'on peut avoir cette impression. Il faut regarder un peu vite, mettons, mais il est aussi vrai que la plupart des gens passent leur semaine à travailler et n'ont pas le temps de passer des heures à faire des recherches et des entrevues sur toutes les histoires qui leur passent sous le nez. Après tout, nombre d'études antérieures et d'organisations sanitaires reconnues lient la viande rouge à des risques plus élevés de problèmes cardiaques et de cancer. Or voilà qu'une revue médicale de haut niveau conclut qu'il n'y a pas de raison de diminuer sa consommation de viande et de charcuteries ? Et puis, ne voit-on pas chaque semaine de nouvelles études qui disent que X et Y sont bons pour la santé, pour ensuite être contredites par d'autres données la semaine d'après (je reviendrai sur ce point) ?

Quand on y regarde de plus près, cependant, je ne crois pas que l'on puisse voir un «flip flop» de la science dans les études de cette semaine sur la viande rouge. En fait, tout ceci me laisse plutôt l'impression (que j'ai validée auprès de quelques chercheurs en nutrition) que l'on assiste à un débat sur le proverbial verre d'eau à moitié vide ou à moitié plein. Car contrairement à ce qu'on a entendu ici et là, les auteurs des études de cette semaine n'ont pas présenté des données qui contredisent celles qui existaient déjà. C'est même plutôt l'inverse.

En fait, tout ce beau monde «voit la même chose», pour ainsi dire. Dans leurs résultats, ces chercheurs à qui l'on accole maintenant l'étiquette «pro-viande» ont trouvé (en agrégeant les données de dizaines d'études existantes) que ceux qui consomment plus de viande sont en moyenne en moins bonne santé que ceux qui en mangent moins. L'effet n'est pas énorme, mais il est là — comme dans pas mal tous les travaux antérieurs. Pour le diabète de type 2 et les problèmes cardiovasculaires, par exemple, pour chaque tranche de 3 portions de viande par semaine, ils comptent entre 1 et 6 cas supplémentaires par 1000 personnes. Pour la mortalité par cancer, ces trois portions de viande hebdomadaires feraient une différence d'environ 7 par 1000. Alors ce ne sont vraiment pas des gros effets — par comparaison, on estime que le cancer cause environ 300 décès sur 1000 —, et pour d'autres indicateurs (comme la mortalité de causes cardiovasculaires) les viandes rouges/transformées ne semblent même pas faire de différence.

Mais il reste que les études «pro-viandes» de cette semaine ont quand même trouvé un effet légèrement néfaste aux viandes rouge et transformées, et que c'est essentiellement la même chose que ce qu'ont vu toutes les autres études, méta-analyses et revues de littérature «anti-viande» dans le passé. Par exemple, quand le Centre international de recherche sur le cancer (CIRC) a classé les charcuteries dans les «cancérigènes avérés», c'était sur la base de données montrant un risque faiblement accru (solidement démontré, mais faible) : pour chaque tranche de 50 g de charcuterie consommée par jour (ce qui en fait quand même pas mal), le risque de développer un cancer colorectal est de 18 % plus grand. Ainsi, pour un homme de 50 ans qui ne mangerait pas de charcuterie, le risque de recevoir un diagnostic au cours de 10 prochaines années serait de 0,68 %, et pour son voisin qui mangerait 50 g par jour, il serait de... 0,80 %. (Le calcul se fait comme ceci : 0,68 x 1,18 = 0,80.)

Et le portrait est le même, grosso modo, pour les risques cardiovasculaires, que ce soit pour les charcuteries ou pour la viande rouge : tant les scientifiques «pro» que les «anti-viande» voient la même chose, les mêmes effets, des chiffres qui vont dans le même sens et les mêmes ordres de grandeur. La différence entre les deux camps, c'est que les auteurs des articles des Annals of Internal Medicine considèrent que non seulement les effets sont très modestes, mais que leur existence même est mal démontrée.

En science biomédicale, ce sont les essais cliniques randomisés en double aveugle qui sont considérés comme l'«étalon or» de la recherche, c'est-à-dire le type d'étude le plus solide, le plus fiable : on fait venir les participants en labos, on leur donne un traitement ou un placebo (sans qu'ils sachent ce qu'ils prennent), et on prend une foule de mesures précises tout en contrôlant une foule de variables. Or en nutrition, les essais cliniques en bonne et due forme sont rares parce que généralement impossibles à réaliser — on ne peut pas, par exemple, soumettre 1000 personnes à un régime végétarien et 1000 autres à un régime carné pendant 10-15 ans, et même si on le pouvait, les participants ne pourraient juste pas être tenus dans l'ignorance du «traitement» qu'ils reçoivent. Ceux qui suivraient le régime «végé» se rendraient rapidement compte qu'ils ne mangent jamais de viande.

Alors on fait ce qu'on peut, c'est-à-dire des études dites «observationnelles», qui consistent souvent, par exemple, à faire remplir aux participants un formulaire sur ce qu'ils ont mangé la veille, puis on «observe» ce qui se passe avec ces gens-là pendant 5, 10, 15 ans. C'est beaucoup, beaucoup moins contrôlé qu'un essai clinique, cela ouvre la porte à toutes sortes de biais, connus ou non, qu'il est souvent difficile de bien mesurer/annuler. Ce qui produit des données à l'avenant : moins solides, moins fiables, parfois même suspectes.

Les chercheurs «pro-viande» de cette semaine disent donc : l'effet est mal démontré et, dans le pire des cas où il existerait vraiment, il serait faible, alors il n'est pas justifié d'inviter les gens à manger moins de viande (en tout cas, pas pour des questions de santé). Et ils ont raison de dire que les données sont, dans l'ensemble, de mauvaise qualité — ils ne sont d'ailleurs pas les seuls de cet avis. «Les preuves ont toujours été faibles», a commenté récemment le médecin, chercheur et blogueur américain Steven Novella.

De l'autre côté de ce débat, ceux qui ont critiqué les études de cette semaine et qui demeurent convaincus qu'il faut réduire la consommation de viande admettent ces faiblesses, mais ils répliquent que ces chiffres sont les seuls dont on dispose et qu'il faut faire avec (ce qui est vrai aussi). Et ces études-là, dans l'ensemble, penchent clairement d'un côté : les viandes rouges et transformées ont des effets néfastes pour la santé. En outre, font-ils valoir, même si ces effets sont faibles, il reste aussi que le cancer, les problèmes cardiaques et le diabète sont des maux si répandus que même une petite baisse représente des gains de santé publique énormes (des millions de gens, littéralement).

De la même manière qu'un verre d'eau rempli à 50 % de sa capacité est vraiment à moitié vide et à moitie plein en même temps, tous ces arguments-là, tant les «anti» que les «pro-viande», sont factuellement vrais et scientifiquement valides. Le débat actuel revient à accorder plus d'importance à certains aspects plutôt qu'à d'autres — ce qui est probablement inévitable quand on parle d'effets modestes déduits à partir des données qui sont, disons, encore plus imparfaites que d'habitude (car elles le sont toutes). C'est la nature de la bête, comme on dit en anglais.

Science

Des souris toujours fécondes après un séjour dans l'espace

TOKYO — L'humanité pourra-t-elle un jour se reproduire dans l'espace? Des souris mâles ayant passé 35 jours dans la Station spatiale internationale (SSI) ont en tout cas gardé leurs capacités reproductrices intactes à leur retour sur Terre, ont constaté des chercheurs japonais.

De précédentes études avaient montré qu'un séjour prolongé dans l'espace pouvait affecter les fonctions reproductrices de mammifères mâles. Du sperme de souris congelé pendant 9 mois à bord de la SSI avait notamment été altéré par des radiations, et la production et la quantité de sperme avaient été affectés chez des rats après 13 jours passés en orbite.

Une nouvelle étude japonaise a examiné 12 souris mâles ayant séjourné dans des cages individuelles spécialement conçues à bord de la SSI pendant 35 jours. Certaines de ces cages étaient dans des conditions d'apesanteur, tandis que d'autres étaient maintenues dans un environnement de gravité artificielle. Les chercheurs dirigés par Masahito Ikawa, un professeur de l'université d'Osaka (Japon), ont utilisé le sperme de ces souris à leur retour sur Terre pour féconder des ovules de souris femelles, lesquelles n'avaient pas voyagé dans l'espace.

Il s'est avéré que leur progéniture était normale et en bonne santé. Ni le système reproducteur des rongeurs de l'espace, ni celui de leurs descendants n'ont par ailleurs été affectés, ont révélé des analyses moléculaires. «Nous en concluons que des séjours spatiaux de court terme ne causent pas de dommages à la fonction physiologique des organes reproducteurs mâles, à la fonction du sperme et à la viabilité de la descendance», affirme cette étude publiée la semaine dernière dans la revue Scientific Reports de Nature.

La recherche médicale a déjà démontré que les séjours spatiaux avaient des effets nocifs sur la santé des astronautes: détérioration de la masse musculaire et de la densité osseuse, troubles de la vue et mutations du génome. De précédentes études avaient observé les conséquences de séjours spatiaux sur les systèmes reproducteurs d'autres animaux, dont des oursins et des oiseaux. Mais c'est la première fois qu'une étude analysait ces effets à un niveau aussi détaillé sur des mammifères.

Mais la recherche n'en est qu'à ses débuts dans ce domaine, et les résultats de cette étude ne peuvent extrapolés sur les humains. «D'autres analyses sont nécessaires pour examiner les effets de long terme de l'environnement spatial sur le système reproducteur mâle», reconnaissent les auteurs de l'étude japonaise, qui n'a par ailleurs pas porté sur des souris femelles.

Science

Deux clefs pour comprendre le nouveau rapport du GIEC sur les océans

Un des éléments les plus inquiétants du rapport spécial du GIEC sur les océans et les glaces — ce rapport qui fait grand bruit depuis sa sortie mercredi matin — est que la fonte du pergélisol dans l’Arctique pourrait à elle seule expédier plus de 1 400 milliards de tonnes de carbone de plus dans l’atmosphère d’ici 2100, soit le double de ce qui s’y trouve actuellement.

Mais le chiffre étant plus difficile à appréhender pour la majorité des gens, les médias ont davantage mis l’accent sur des chiffres qui sont moins abstraits : par exemple, lit-on dans ce rapport, le scénario du pire établit désormais la hausse du niveau des océans, d’ici 2100, à l’intérieur d’une échelle se situant entre 61 centimètres et 1,1 mètre (la barre supérieure est dans le cas d’un réchauffement qui atteindrait les 3 degrés). Ou encore, ce niveau des eaux plus élevé signifie davantage d’inondations pendant les tempêtes ou pendant les grandes marées : ainsi, des événements dont on estimait jadis qu’ils ne se produiraient qu’une fois par siècle dans certaines régions côtières des Tropiques, pourraient revenir plusieurs fois par décennie après 2050.

Première clef : le pouvoir des océans

L’une des clefs du rapport pour comprendre tous ces chiffres est que les océans ont beau avoir absorbé le gros de la chaleur et une bonne partie du dioxyde de carbone (CO2) que nos activités ont expédiés dans l’air depuis un siècle — ce sont en effet les océans qui sont les véritables poumons de la planète, plutôt que l’Amazonie — ces océans ont leurs limites, et tout laisse croire que l’on approche de ces limites : la vitesse à laquelle les océans se réchauffent aurait doublé depuis le début des années 1990 et les vagues de chaleur perturbent d’ores et déjà les populations marines d’une façon que les biologistes — et les pêcheurs — en sont encore à essayer de décoder. Cela, en plus du fait que plus les océans absorbent du CO2, plus ils deviennent acides, ce qui menace la survie de certaines espèces de poissons, sans parler des coraux.

Les océans «ne peuvent pas continuer» avec cet apport de gaz à effet de serre d’origine humaine, résume aux journalistes depuis mardi soir le vice-directeur du GIEC, Ko Barrett, également directeur adjoint à l’agence américaine des océans et de l’atmosphère (NOAA).

Deuxième clef : il y a plus d’un scénario

L’autre clef pour comprendre tous ces chiffres réside dans le mot « incertitude ». Ce mot ne signifie pas que les scientifiques sont incertains quant aux impacts de l’activité humaine sur le climat. Il rappelle plutôt qu’un tel rapport du GIEC, comme toute projection sur l’avenir des climats, inclut toujours plus d’un scénario, et que chacun, du plus optimiste au plus pessimiste, est fonction de la vitesse à laquelle nous réduirons nos émissions de gaz à effet de serre.

Ainsi, les 60 centimètres de hausse du niveau des océans reflètent le scénario optimiste, celui où les principaux pays pollueurs respecteraient leurs cibles de l’Accord de Paris et réduiraient donc considérablement leurs émissions de gaz à effet de serre avant 2050. Même dans ce scénario toutefois, le CO2 accumulé continuerait de faire sentir ses effets pendant des décennies.

Quant au scénario pessimiste, à 1,1 mètre de hausse, il place la barre 10 centimètres plus haut que l’estimation la plus pessimiste du plus récent rapport régulier du GIEC, publié en 2013-2014. Cette différence vient d’une compréhension de plus en plus fine, depuis six ans, de la façon et de la vitesse à laquelle vont fondre les glaces de l’Antarctique.

Pour le géologue Richard Alley, de l’Université d’État de Pennsylvanie, cette nouvelle estimation est même «conservatrice», justement en raison de cette incertitude sur l’Antarctique, particulièrement la partie ouest de sa calotte glaciaire. Une fonte plus rapide que prévu pourrait obliger à revoir ces chiffres à la hausse. La hausse du niveau des océans, explique-t-il à la revue Nature, «pourrait être un petit peu moins, un petit peu plus, ou beaucoup plus» que ce que dit le nouveau rapport. «Mais elle ne sera pas beaucoup moins.»

Quant au pergélisol, même une réduction de «seulement» le quart ou la moitié de sa surface d’ici 2100 ne devrait pas faire oublier que le gaz à effet de serre relâché serait le méthane, et non le CO2, et que le premier gaz reste plus longtemps présent dans l’atmosphère que le second.

Un rapport spécial

On appelle ce document «rapport spécial» du GIEC pour le distinguer des rapports réguliers, publiés tous les cinq à sept ans depuis les années 1990 (celui de 2013-2014 était le cinquième). Il s’agit du troisième et dernier rapport spécial depuis un an : le deuxième (paru en août) portait sur l’impact du réchauffement climatique sur notre utilisation des terres et le premier (paru en novembre 2018) consistait en une analyse comparative des impacts d’un réchauffement de un degré et demi par rapport à un réchauffement de deux degrés. Totalisant 800 pages, celui-ci a été rédigé par 102 chercheurs de 80 pays. Un «résumé pour les décideurs» de 42 pages qui, lui, devait être approuvé ligne par ligne par tous les pays membres, a également été publié mercredi matin.

Science

Consensus scientifique et climat: ce qu’il faut savoir

DÉTECTEUR DE RUMEURS / Dès qu’une personne ou un groupe veut remettre en doute l’existence du réchauffement climatique, ou la responsabilité humaine dans le réchauffement, ou «l’urgence climatique», l’argument de l’absence de «consensus scientifique» revient sur la table. Mais que veut dire consensus ici ? Cette question, venue d’un lecteur, donne l’occasion au Détecteur de rumeurs d’expliquer pourquoi l’argument révèle une incompréhension du concept.

«Il n’y a pas de consensus des scientifiques sur le climat, la preuve, telle lettre signée par des scientifiques qui ne croient pas au réchauffement.» Sous diverses formes, cet argument revient périodiquement depuis 20 ans. Cette semaine encore, un document de ce genre a été envoyé à António Guterres, Secrétaire général des Nations Unies.

En réalité, cet argument traduit une confusion : un scientifique qui émet son opinion sur un sujet, et un scientifique qui publie une étude sur ce sujet, ce n’est pas la même chose.

Le Détecteur de rumeurs ne le rappelle sans doute pas assez souvent dans ses vérifications de faits, mais la base de la construction d’un savoir, en science, ne repose pas sur l’opinion d’un ou de plusieurs scientifiques, mais plutôt sur l’accumulation des études sur un sujet. Un consensus s’établit donc quand plusieurs études confirment la même chose dans un domaine particulier.

Ainsi, chaque fois qu’on entend, à propos du climat, le fameux chiffre « 97 % des scientifiques sont d’accord », on fait référence à 97 % des scientifiques qui ont publié une étude sur le réchauffement climatique. On parle d’un accord général, même s’il n’y a pas d’unanimité.

L’origine de ce pourcentage est une recherche de l’historienne des sciences de l’Université Harvard, Naomi Oreskes, en 2004 : sur 928 études publiées par des climatologues et contenant les mots-clés (en anglais) « global climate change », aucune n’était en désaccord avec le consensus sur la responsabilité humaine dans le réchauffement climatique. Depuis 2004, au moins 14 compilations similaires sont arrivées à des totaux variant entre 91 % et 100 %, tout dépendant du niveau d’expertise retenu pour figurer dans la compilation.

Non seulement y a-t-il donc consensus sur la responsabilité humaine, mais ce consensus aurait de surcroît augmenté entre 1991 et 2011, selon une de ces compilations.

C’est en vertu de cette même définition qu’on a coutume de dire que l’évolution fait consensus parmi les biologistes, ou que le caractère cancérigène du tabac fait consensus parmi les oncologues. Ce qui n’empêche pas que des gens détenteurs d’un diplôme en science peuvent bel et bien continuer de nier ces faits sur la base de leurs opinions personnelles.

Deux illustrations du problème :

«30 000 scientifiques ont signé une pétition signifiant leur opposition à la théorie du réchauffement»

Connue sous le nom de pétition de l’Oregon, ou Global Warming Petition Project, elle exhortait en 1998 le gouvernement américain à ne pas signer le Protocole de Kyoto et affirmait qu’il «n’existe aucune preuve scientifique convaincante» que les émissions de gaz à effet de serre risquent de provoquer un réchauffement planétaire. Deux décennies plus tard, des gens continuent d’alléguer que puisque «plus de 30 000 scientifiques» l’ont signée, c’est la preuve qu’il n’existe pas de consensus scientifique sur le climat. Toutefois, parmi les signataires, on ne retrouve pratiquement aucun scientifique qui ait publié une étude pertinente : plus du tiers ont un diplôme d’ingénieur, plusieurs milliers sont en médecine, en sciences aérospatiales, en biologie… II y avait aussi beaucoup de signataires fantaisistes ou fictifs.

500 scientifiques «contre l’urgence climatique»

Le 23 septembre 2019, un groupe envoyait au Secrétaire général des Nations Unies une lettre signée par «500 scientifiques» et proclamant «il n’y a pas d’urgence climatique». La liste des signataires principaux incluait des figures connues des groupes qui nient le réchauffement depuis des années, comme le Néerlandais Guus Berkhout (un ingénieur) le Québécois Raynald Du Berger (maîtrise en géophysique de l’Université Laval) et le vicomte Monckton de Brenchley (pas de diplôme en science), un Britannique qui s’est auto-proclamé membre de la Chambre des Lords et Prix Nobel (il n’est ni l’un ni l’autre).

La liste, avait révélé au début du mois le média en ligne DeSmog, est le résultat d’un effort coordonné de plusieurs groupes de pression libertariens, de droite ou d’extrême-droite, en Europe et aux États-Unis, et contient à ce titre plusieurs de leurs «vedettes» habituelles.

Science

Autisme, pesticides et PR: la suite

BLOGUE / La Fondation David-Suzuki a vivement réagi à mon billet de la semaine dernière au sujet de leur rapport sur le lien allégué entre les pesticides et l'autisme. C'était à prévoir, remarquez : je n'ai pas été particulièrement tendre envers leur document.

La FDS a publié sa réplique vendredi après-midi dernier. Par souci de transparence et d'honnêteté intellectuelle, je la reproduis intégralement ici. Autant vous avertir tout de suite, c'est long (et les points soulevés/développés ne me semblent pas tous très pertinents, mais bon). Je répondrai brièvement à cette réplique à sa suite.

Science

Les Canadiens ont moins confiance en la science, selon un sondage

Un sondage suggère que la confiance que les Canadiens ont envers la science est peut-être en train de s'éroder.

L'enquête, réalisée par le cabinet de sondage Ipsos pour le compte de la multinationale 3M, révèle que près de la moitié des personnes interrogées considèrent que les scientifiques sont élitistes et qu'un nombre important de personnes interrogées ignorent les découvertes scientifiques qui ne concordent pas avec leurs convictions personnelles.

«Bien que les sceptiques de la science représentent une minorité de Canadiens, leur nombre augmente», a déclaré Richard Chartrand de 3M Canada. «Cette tendance est préoccupante, car elle montre que la méfiance est en hausse.»

Ces données canadiennes sont tirées d'un sondage mondial mené entre juillet et septembre 2018 auprès de plus de 14 000 personnes. C'est la deuxième année que 3M effectue ce sondage.

À une époque où les changements climatiques et la perte d'espèces sauvages placent la science au sommet de l'ordre du jour public, le sondage indique que 32 % des personnes interrogées sont sceptiques à ce sujet. Le nombre de sceptiques s'élevait à 25 % l'année précédente.

«C'est passé d'une personne sur quatre à une personne sur trois», a noté M. Chartrand. «Il est difficile pour nous de comprendre pourquoi.»

Les résultats de l'étude étaient contradictoires. Bien que le doute soit en croissance, neuf répondants sur 10 ont déclaré avoir toujours confiance dans les résultats de recherches.

Près de la moitié — 44 % — ont déclaré qu'ils considéraient les scientifiques comme des «élitistes». Environ un tiers ont estimé que les scientifiques étaient influencés par l'ordre du jour du gouvernement. Un autre tiers pense que la science est influencée par les intérêts des entreprises.

Et 30 % ont indiqué qu'ils ne croyaient qu'aux sciences qui cadraient avec leurs convictions personnelles.

D'autres sondages ont fait écho à celui de 3M-Ipsos.

Question d’opinion

Un sondage Léger réalisé en 2017 pour le Centre des sciences de l'Ontario a révélé que 29 % des personnes interrogées pensent que comme les théories scientifiques peuvent être remises en question, on ne peut leur faire confiance. Une autre question a permis de constater que 43 % des répondants estiment que la science est une question d'opinion.

«C'est déprimant, mais pas trop surprenant», a déclaré John Smol, écologiste à l'Université Queen's, qui a écrit sur le sujet. «Il y a un réel décalage entre ce que font les scientifiques et la perception du public.»

M. Smol craint que les Canadiens ne comprennent pas comment fonctionne la science — ce sont les données qui comptent et non les croyances.

«Il y a certainement des idées fausses», a-t-il déclaré. «Vous ne pouvez pas leur en vouloir. Il existe une jungle de désinformation.»

Ce n'est pas la faute du public, affirme aussi Stephen Johnstone, qui dirige le département des sciences de la Terre et de l'atmosphère à l'Université de l'Alberta.

«Nous devons faire un effort pour communiquer dans des termes compréhensibles», a-t-il déclaré.

«En science, il y a déjà eu une éthique selon laquelle moins il y avait de gens qui comprenaient réellement ce que vous faisiez, meilleur était votre travail. Cela change.»

M. Smol abonde dans le même sens.

«Nous avons la responsabilité réelle de rendre la [science] accessible. Nous effectuons encore un travail relativement médiocre en ce qui concerne la traduction des données — généralement payée par les contribuables — et leur transmission au public.»

Science

Vapotage: des effets dévastateurs à craindre pour les poumons

LA SCIENCE DANS SES MOTS / Le vapotage cause de graves maladies chez de jeunes adultes et adolescents par ailleurs en bonne santé. Il provoque une toxicité et des lésions susceptibles de raccourcir l’espérance de vie et parfois même de tuer. Ses dégâts semblent irréversibles et inguérissables.

Un récent rapport, publié dans le New England Journal of Medicine, confirme que c’est bien le cas : 53 patients hospitalisés souffraient d’une grave toxicité pulmonaire et de lésions. L’âge moyen de ces patients était de 19 ans.

Dans sa brève histoire, le vapotage a mené à des hospitalisations, des semaines passées aux soins intensifs, des défaillances pulmonaires, un besoin urgent d’un appareil de pontage cardiopulmonaire et, après l’échec de toutes ces interventions, le décès tragique de ces jeunes par ailleurs en bonne santé.

Le Canada n'est pas à l'abris: un jeune de la région de London, en Ontario, pourrait être le premier patient canadien atteint d'une maladie pulmonaire causée par le vapotage, a indiqué le bureau de la santé publique de la région, mercredi.

En tant qu’expert scientifique en imagerie pulmonaire, je développe de nouvelles techniques afin de de pouvoir visualiser l’intérieur de la poitrine de façon à mesurer et surveiller aisément les anomalies pulmonaires des patients. Je constate les effets dévastateurs sur les poumons de fumeurs de cigarette et de cannabis. Je vois aussi la façon dont les bronches sont détruites et comment des millions de sacs alvéolaires paraissent abîmés ou même totalement détruits, résultant en de graves difficultés respiratoires, une piètre qualité de vie, puis la mort.

En raison des connaissances que j’ai acquises en développant de nouvelles techniques d’imagerie pulmonaire, et compte tenu de l’impact de l’inhalation du tabac et des gaz sur la santé pulmonaire, je suis préoccupée par le fait que les gouvernements et autres instances réglementaires aient choisi de se distancier des risques posés par la cigarette électronique.

Je suis très inquiète car le marketing de la cigarette électronique est à la fois persuasif, envahissant et répandu, en particulier quand il vise les enfants et les adolescents dont la croissance et le développement pulmonaires ne sont pas encore terminés.

Des substances huileuses à l’intérieur des poumons

Selon quelques rapports récents de patients souffrant de toxicité pulmonaire liée au vapotage, des substances huileuses ont été découvertes dans leurs globules blancs, leur tissu pulmonaire et leurs bronches.

S’il est possible que ces substances proviennent du mélange de nicotine et de THC contenu dans les cigarettes électroniques utilisé par ces patients il est encore difficile de comprendre et d’établir comment l’usage de la cigarette électronique induit ces maladies pulmonaires potentiellement mortelles.

Science

Le «lendemain de veille» des dinosaures...

Il y a 66 millions d’années, une météorite s’est écrasée sur la Terre, lançant une cascade d’événements qui allait mettre prématurément fin à la carrière des dinosaures. Mais que s’est-il passé au lendemain de la collision ? Dans l’heure qui a suivi ?

Ce sont les questions auxquelles ont voulu répondre les chercheurs qui ont analysé un forage du cratère de Chicxulub, qui gît aujourd’hui sous 1 000 mètres de calcaire, à cheval entre la péninsule du Yucatan et le Golfe du Mexique. Une «carotte» de roc de 130 mètres de long qui, décortiquée millimètre par millimètre, révèle une journée cataclysmique dont on devinait déjà les grandes lignes — mais la révèle pratiquement heure par heure.

Le genre de précision qu’on n’a pas l’habitude de voir en géologie, note dans le National Geographic la géologue Jennifer Anderson, qui commente le travail de ses collègues, paru lundi dans la revue Proceedings of the National Academy of Sciences.

La météorite a d’abord «temporairement» creusé un trou de 100 kilomètres de large et d’une trentaine de kilomètres de profondeur. Un impact qui a provoqué un tsunami s’éloignant dans la direction opposée au cratère, mais aussi catapulté de la roche jusque dans la haute atmosphère — et probablement au-delà, dans l’espace interplanétaire.

La plus grosse partie du matériel est retombée sur la terre ferme en quelques minutes, laissant une empreinte caractéristique — reconnaissable 66 millions d’années plus tard — d’une roche en fusion qui est retombée et s’est refroidie. En 30 minutes, l’océan a commencé à envahir le trou, par une ouverture du côté nord. Mais ce n’était qu’un avant-goût du déplacement qui allait se produire quand toute l’eau du tsunami allait revenir, quelques heures plus tard : des vagues de plusieurs centaines de mètres, renvoyées par les rivages les plus proches. Leur empreinte : une couche de 10 cm de sable et de gravier.

Ce qui ne se trouve pas dans le forage est aussi révélateur que ce qui s’y trouve, poursuivent les géologues : une absence de soufre, alors que les roches environnantes en sont riches. Une autre empreinte indirecte, à leurs yeux, de la quantité gigantesque de roche qui a été éjectée dans l’atmosphère, y libérant manifestement son soufre avant de retomber au sol. Et bien que le forage ne dise rien des jours qui ont suivi, cette quantité de soufre a dû avoir un impact sur le climat.

La journée n’était pas terminée. Des accumulations de charbon confirment que des incendies ont fait rage — et ont probablement brûlé pendant des semaines. Et là non plus, le cratère n’en dit rien, mais il est facile de déduire que ces incendies n’ont pas seulement brûlé à proximité : une partie de la roche en fusion éjectée dans l’atmosphère a pu servir d’allumette à de grandes distances.

Science

Formule 1: le mental joue pour «50 % sinon plus»

PARIS — La performance d'un pilote de Formule 1, «c'est au moins 50 % physique, 50% mental, sinon plus pour le mental», estime le docteur Riccardo Ceccarelli, fondateur de Formula Medicine et pionnier des méthodes d'entraînement à destination des pilotes.

Q : Quelles sont les spécificités de l'entraînement d'un pilote de Formule 1 ?

R : À titre de comparaison, le sport qui, pour moi, est le plus similaire est la boxe. Le boxeur doit à la fois être fort et rapide. Il ne faut pas que ses muscles soient trop gros, sinon il perd en vitesse. Le boxeur essaye aussi d'être au poids le moins élevé possible pour rester dans la catégorie inférieure. Il lui faut un temps de réaction très court, beaucoup de concentration, de la confiance en soi, ne pas avoir peur en allant au combat. Si vous considérez tous ces aspects, il y a beaucoup de points communs entre piloter une voiture et boxer.

Q : Quelle proportion prennent respectivement les préparations physique et mentale ?

R : Pour nous, c'est au moins 50 % physique, 50 % mental, sinon plus pour le mental. Quand vous avez atteint une haute condition physique et que vous pouvez piloter sans vous fatiguer pendant toute la durée de la course, il suffit de maintenir cela. Par contre, vous pouvez toujours progresser sur le plan mental et c'est cela qui améliore vos performances. Demander à un pilote d'enchaîner pendant une heure et demie soixante-dix tours au rythme des qualifications et sans faire aucune erreur est impossible. Ça serait comme demander à un marathonien de courir chaque kilomètre au même rythme. Il faut gérer son énergie, ses capacités et ça se joue dans le cerveau. Le rythme de course d'un pilote en bonne condition physique n'est pas limité par ses muscles mais par ses aptitudes mentales, sa capacité à rester concentré et à 100%.

Q : Comment travaillez-vous cet aspect mental ?

R : Nous disposons de deux gymnases jumeaux de la même superficie, l'un dédié au physique, l'autre au mental. Nous avons créé des logiciels pour travailler la concentration, la focalisation de l'attention, le temps de réaction, la coordination, la fluidité de mouvement, la flexibilité mentale, la capacité à effectuer plusieurs tâches simultanément... Ce qui est intéressant, c'est que nous mesurons non seulement la performance mais aussi le rythme cardiaque et l'activité cérébrale. C'est comme la télémétrie d'une voiture: nous pouvons savoir si vous gaspillez de l'énergie, si vous avez trop de pression au début, si vous vous fatiguez à la fin ou perdez en concentration, si vous pensez trop et ne restez pas assez focalisé... Pour plus de pression, jusqu'à quatre personnes peuvent participer au même test. Les pilotes sont en général tellement fiers et ont un tel esprit de compétition que la plupart sont alors moins performants et consomment plus d'énergie. C'est important de leur montrer que la compétition peut leur faire perdre de leur potentiel et qu'il faut arriver en course relaxé, l'esprit libre, sans trop réfléchir ou se fixer d'objectif, d'être juste calme et confiant. Pour résumer, c'est comme un détecteur de mensonges qui permet de déceler vos points faibles pour travailler ensuite dessus avec des psychologues de manière personnalisée. Le but est d'améliorer la performance tout en réduisant la consommation. Quand votre corps et votre esprit consomment moins, vous gérez mieux la pression, vos capacités et vos ressources. On parle de mental economy training («entraînement pour s'économiser mentalement», ndlr). C'est innovant car la préparation mentale était jusque-là l'affaire de psychologues ou de coachs qui travaillent avec la parole plutôt que de chiffres.

* * * * *

Propos recueillis par Raphaëlle Peltier.

Science

Le deuxième visiteur interstellaire est encore plus intéressant que le premier

Les astronomes sont dans un état d’excitation avancé : un autre objet interstellaire, la comète C/2019 Q4 (Borisov) serait entré dans notre système solaire, après le mystérieux Oumuamua de 2017. Et ce petit nouveau aurait plusieurs avantages sur Oumuamua.

Explication. On entend par objet interstellaire un corps céleste qui n’est pas en orbite autour de notre Soleil. Autrement dit, il ne s’agit même pas d’une comète dont l’orbite est si excentrique qu’elle met des milliers d’années à faire un tour complet. Il s’agit d’un astéroïde ou d’une comète qui est venu d’ailleurs… et qui va y retourner.

Qu’est-ce qui rend les astronomes si certains de leur coup, puisqu’ils n’ont détecté cet objet qu’alors qu’il était déjà relativement près de nous, et non au-delà de notre système solaire ? Deux choses : sa trajectoire — qui permet de déduire de quelle région du ciel il arrivait — mais surtout sa vitesse, qui fait en sorte qu’il ne sera pas capturé par l’attraction de notre Soleil et poursuivra sa route vers les étoiles.

Si l’intuition des astronomes se confirme quant à l’identité extrasolaire de la comète C/2019 Q4 (Borisov), celle-ci présentera trois avantages sur Ouamuama.

  • L’excentricité de son orbite : une planète comme la Terre, avec son orbite presque circulaire, a un facteur d’excentricité de presque zéro. Les comètes et les astéroïdes, y compris les plus «excentriques», oscillent entre 0 et 1. Oumuamua était à 1,2, ce qui en faisait déjà une anomalie. Alors que ce nouveau venu est estimé pour l’instant à 3,08.
  • Sa vitesse : à 41 kilomètres par seconde, c’est déjà plus rapide que tout autre objet de notre système solaire, suffisant pour échapper à la gravité de notre Soleil, sans compter qu’il va encore gagner de la vitesse à mesure qu’il va s’en approcher; le bémol ici, note l’astronome Phil Plait, est qu’un objet « normal » aurait pu gagner beaucoup de vitesse s’il s’était beaucoup approché de Jupiter, mais sa trajectoire n’étant pas parallèle à celle de notre système solaire, une telle rencontre avec Jupiter semble improbable.
  • Elle continue de s’approcher : alors qu’Oumuamua avait été découvert tandis qu’il s’éloignait déjà de nous, celui-ci, découvert le 30 août — par un astronome amateur russe appelé Gennady Borisov, d’où son nom provisoire — devrait être à son point le plus près de nous — à «seulement» 300 millions de km — au début de 2020, ce qui laisse présager que beaucoup de temps de télescopes initialement prévu pour d’autres choses sera consacré à cette bien modeste comète qui ne fait que quelques kilomètres de diamètre.

S’ajoute à cela le fait que si on a détecté deux objets venus d’ailleurs en seulement deux ans, il doit y en avoir beaucoup d’autres qui passent inaperçus dans notre voisinage.

Science

Peut-on réellement savoir ce que pensent les animaux?

LA SCIENCE DANS SES MOTS / Sarah, «la chimpanzée la plus intelligente au monde» est décédée en juillet dernier, à quelques jours de son soixantième anniversaire. Durant la plus grande partie de son existence, elle a servi de sujet de recherche, ce qui a permis aux scientifiques d’ouvrir une fenêtre sur le mode de pensée du parent le plus proche de l’humain.

La mort de Sarah nous donne l’occasion de réfléchir à une question fondamentale: peut-on réellement savoir ce que pensent les animaux? En m’appuyant sur mon expérience de philosophe, je postule que la réponse est non. Car il y a des limites de principe à notre compréhension de la pensée animale.

La pensée animale

Il ne fait guère de doute que les animaux réfléchissent. Leur comportement est trop sophistiqué pour n’être qu’instinctif. Mais il est extrêmement difficile de déterminer avec précision ce à quoi ils pensent. Notre langage humain n’est pas adapté à l’expression de leurs pensées.

Sarah est l’exemple parfait de ce casse-tête. Lors d’une étude célèbre, elle a choisi correctement l’objet nécessaire pour compléter une série d’actions. Face à une personne se débattant pour atteindre quelques bananes, elle a bien choisi un bâton plutôt qu’une clé. Alors que face à une personne enfermée dans une cage, elle a préféré la clé au bâton.

Ce qui a amené les membres de l’étude à conclure que Sarah possédait « une théorie complète de l’esprit », comprenant les concept d’intention, de croyance, et de savoir. Théorie immédiatement contestée par d’autres chercheurs. Ils doutaient que nos concepts humains puissent saisir avec exactitude le point de vue de Sarah. Bien que des centaines d’études additionnelles aient été menées depuis des décennies, le désaccord règne en maître quant à la caractérisation des concepts mentaux des chimpanzés.

La difficulté ne découle pas d’une incapacité à s’exprimer. Une fois un langage rudimentaire maîtrisé, le casse-tête Sarah ne relevait plus de savoir ce qu’elle pensait mais bien de comprendre ce que ses mots voulaient dire.

Les mots et leur sens

Il se trouve que le problème de l’association de leur sens aux mots est une obsession fondamentale des philosophes du XXe siècle. Parmi ceux-ci, W.V.O. Quine, probablement le philosophe le plus influent de la seconde moitié de ce siècle.

Professeur à Harvard, la renommée de Quine s’est construite sur l’idée de ce qu’il faudrait pour traduire une langue étrangère — un projet qu’il intitule la traduction radicale. Il conclut qu’il y aurait toujours plusieurs traductions possibles toutes aussi valables les unes que les autres. En conséquence, nous ne pourrons jamais définir le sens exact à attribuer aux mots d’une langue. Mais il a également fait remarquer que la traduction radicale était limitée à la structure même d’une langue.

Quine a inventé une langue étrangère sans aucun rapport avec les langues humaines connues. Je me servirais de l’allemand pour illustrer ce propos. Supposons qu’un germanophone prononce la phrase: Schnee ist weiss («La neige est blanche»). Ses amis sourient et acceptent le sens de cette phrase telle quelle. Malheureusement, il y a peu d’indices quant au sens de la phrase. Il y a plusieurs vérités et la phrase pourrait signifier n’importe laquelle de ces vérités.

Ce qui suggère une conclusion générale: si nous sommes capables de traduire des phrases d’une langue à l’autre, c’est essentiellement parce que nous pouvons traduire les mots d’une langue vers une autre langue.

Mais imaginons une langue dont la structure nous est totalement inconnue. Comment la traduire? Si, pour traduire des phrases, il faut en traduire les mots, mais que ces mots ne sont pas liés à notre langue, nous serions incapables de les reporter dans notre langue. Nous ne pourrions pas comprendre le sens de ces phrases.

Science

Vitesse d'expansion de l'Univers: la controverse continue

WASHINGTON — Les astrophysiciens savent depuis 90 ans que l'univers s'étend, et ils tentent depuis de mesurer la vitesse exacte de cette expansion. Mais différentes méthodes produisent des résultats différents, forçant les scientifiques à se demander si leur théorie du cosmos est solide.

Dans les années 1920, les astrophysiciens Georges Lemaître et Edwin Hubble ont découvert que l'univers était en expansion, au lieu d'être un terrain calme et borné. En 1998, deux équipes de chercheurs ont découvert que le rythme de cette expansion s'accélérait avec la distance, et que l'univers était rempli d'une mystérieuse «énergie noire» causant cette accélération, depuis 14 milliards d'années. Ils ont gagné le prix Nobel en 2011.

La vitesse est calculée grâce à la «constante d'Hubble». Cette constante est estimée de plus en plus précisément par les physiciens. Le problème est qu'elle est de 67,4 selon une méthode, et de 73 selon une autre. L'unité est en kilomètres par seconde par mégaparsec. Un mégaparsec égale environ trois millions d'années-lumière. Cela se lit ainsi: des galaxies situées à trois millions d'années-lumières (1 mégaparsec) s'éloignent de 67,4 (ou 73 !) kilomètres par seconde.

Les deux nombres semblent proches, mais pas pour les cosmologistes. Chaque méthode ayant une marge d'erreur faible, le fossé entre les deux résultats ne s'explique pas par une simple erreur de calcul: il y aurait donc un problème plus fondamental, quelque chose qui nous échapperait concernant l'univers et que la théorie actuelle n'est pas capable d'expliquer. Peut-être que l'équation expliquant le Big Bang et le cosmos a besoin d'être mise à jour.

«Des lois physiques inconnues»

La recherche actuelle, impliquant de nombreuses équipes dans le monde, consiste non seulement à affiner les mesures de distance des étoiles, mais aussi à trouver de nouvelles méthodes pour mesurer la vitesse de fuite des galaxies et peut-être résoudre ce que les physiciens appellent sobrement, au lieu d'une controverse ou d'une crise, la «tension» de la constante d'Hubble. Illustrant cette quête frénétique, une étude décrivant une méthode nouvelle, rédigée par des chercheurs de l'Institut d'astrophysique Max Planck en Allemagne et d'autres universités, est ainsi parue jeudi dans la revue américaine Science.

Ils sont parvenus à mesurer la distance de deux étoiles en observant comment sa lumière se courbe autour de grosses galaxies sur son trajet jusqu'à la Terre. Cette équipe a mesuré la constante à 82,4 km/s/mégaparsec, mais avec une marge d'erreur de plus ou moins 10 %, soit beaucoup plus que les mesures effectuées par d'autres équipes.

«Si la tension est réelle, cela veut dire que l'univers ancien était gouverné par des lois physiques inconnues», dit la cosmologiste Inh Jee à l'AFP, coautrice de l'étude. Le but de ces nouveaux travaux est de vérifier s'il y réellement un problème fondamental. Elle espère que d'autres observations réalisées avec sa méthode permettront de réduire l'erreur, qu'elle reconnaît être trop grande pour l'instant.

Interrogé par l'AFP, l'un des prix Nobel 2011 Adam Riess, de l'Université Johns Hopkins, confirme que ces nouveaux résultats ne sont pas assez précis pour vraiment peser dans la controverse, en tout cas pour l'instant. «Je ne pense pas que cela apporte grand chose à l'état actuel des connaissances. Mais c'est sympa que des gens cherchent des méthodes alternatives, donc bravo¢, conclut le célèbre astrophysicien dans un e-mail.

Science

Paludisme: une promesse venue du Nord

Région fragile, le Grand Nord québécois a encore beaucoup à nous apprendre. Il possède une biodiversité unique dont pourraient même être extraites des molécules susceptibles de nous soigner… ou de soigner des populations lointaines, selon une récente découverte.

L’équipe du chimiste Normand Voyer, de l’Université Laval, a en effet mis à jour de possibles propriétés antipaludiques dans des molécules des eaux froides de la baie de Frobisher, au Nuvavut. Et l’une des quatre molécules issues de ce champignon microscopique du genre Mortierella s’avère particulièrement prometteuse. «L’incroyable, c’est qu’une molécule du Nord pourrait aider à soigner une des pires maladies du Sud», la malaria, ou paludisme, relève le chercheur.

Certains moustiques des régions chaudes (les anophèles femelles) transmettent par piqûre à l’homme un parasite, du genre plasmodium. C’est ce parasite qui entraine le paludisme. Cette maladie infectieuse se caractérise par des symptômes voisins de la grippe : fortes fièvres, douleurs musculaires, affaiblissement, fatigue. Mais les conséquences peuvent être beaucoup plus graves : anémie, œdème pulmonaire, détresse respiratoire, jusqu’au décès pour les nourrissons et les jeunes enfants, les malades et les personnes avec un système immunitaire affaibli.

En laboratoire, les quatre molécules (mortiamide A, B, C et D) ont été testées sur différentes souches. Résultat : la mortiamide D a réussi à éliminer le parasite Plasmodium falciparum des globules rouges, in vitro, en 72 heures.

Il ne s’agit que d’une première étape : l’identification d’une molécule prometteuse. «Il nous faut comprendre son mode de fonctionnement et quelles sont les enzymes qu’elle affecte. Nous sommes encore loin d’un médicament», convient le chercheur.

Le Nunavut constitue un milieu de vie haut en stress avec son alternance de six mois de froid glacial et d’obscurité et de six mois d’intense rayonnement UV. Ce qui explique que les organismes indigènes se parent de moyens de défense performants pour assurer leur survie.

Si un champignon nordique possède de telles molécules, plus toxiques pour les parasites, c’est qu’il s’agit d’une défense chimique — la même stratégie de protection que le piment jalapeño avec ses molécules au goût piquant (capsaïcines), afin de ne pas être mangé.

À côté des prospections minières dans la mire du gouvernement provincial, dorment donc des richesses naturelles, terrestres et marines. «Mon rêve serait de préserver la chimio-diversité du Grand Nord avant que les changements climatiques ne les fassent disparaître», poursuit le Pr Voyer.

Lutte au paludisme

Malgré un recul des cas de paludisme dans le monde depuis près de 20 ans, cette maladie infectieuse stagne : on a compté 219 millions de cas en 2017. Elle fait encore des ravages en Asie, en Amérique centrale et du Sud et surtout en Afrique, où près de 90 % des décès surviennent — l’OMS en dénombrait 435 000 en 2017, majoritairement de jeunes enfants.

À l’autre bout du monde, les changements climatiques déplacent aussi les vecteurs de cette maladie, les anophèles, vers des altitudes plus élevées. La lutte prend de nombreuses voies : insecticides, moustiquaires imprégnées d’insecticides, assèchement de milieux humides… Avec une certaine efficacité, mais sans parvenir à éliminer l’ennemi.

«Nous avons fait beaucoup de progrès, mais il faut plus d’efforts pour éradiquer les moustiques porteurs du parasite», déclare le Professeur adjoint du Département de médecine sociale et préventive de l’École de santé publique de l’Université de Montréal, Thomas Druetz.

Le traitement actuel contre le paludisme — un dérivé de l’artémisinine qui provient d’une plante de Chine, l’Artemisia annua, donné en première ligne — connaît lui aussi des résistances. Même combiné avec d’autres traitements antipaludiques, il perd du terrain face au parasite.

«Les résistances que nous constatons pour les traitements actuels montrent que nous avons besoin de nouvelles molécules. La publication du Pr Voyer est intéressante, mais est à un stade très préliminaire; on ignore encore l’efficacité de cette molécule chez l’homme», relève encore le chercheur.

Pour sa part, le Pr Druetz étudie l’efficacité de médicaments de prévention face au paludisme saisonnier. Sa récente étude, auprès d’enfants du Mali, montre que cette stratégie diminue de 44 % le risque d’un diagnostic positif, mais aussi décroît le risque d’anémie modérée et sévère chez les enfants. Près de 12 millions de très jeunes enfants d’une douzaine de pays africains ont reçu ce type de traitement préventif.

Qui bénéficie de cette pharmacopée du Nord ?

À l’Université du Québec en Abitibi-Témiscamingue, le chercheur et directeur de l’École d’études autochtones, Hugo Asselin, a élaboré un répertoire de 546 taxons végétaux utilisés par les peuples autochtones de la forêt boréale canadienne. Le sureau, l’achilée, le thuya et bien d’autres plantes : un savoir qu’il importe de préserver

Mais ces plantes intéressent aussi les industries pharmaceutique et cosmétique sans que les premiers peuples en tirent des redevances ou une forme de compensation. «Qui bénéficie de cette pharmacopée du Nord ? Lorsqu’on fait des recherches et des produits à partir des ressources utilisées par les communautés, sans les associer, j’y vois un glissement vers une appropriation d’une richesse naturelle et je me questionne sur la dimension éthique», relève l’ethnobotaniste de l’Institut de recherche en biologie végétale de l’Université de Montréal, Alain Cuerrier. Il juge que les travaux du Pr Voyer sont ainsi dans une zone grise, parce que le Canada n’a pas ratifié le Protocole de Nagoya sur l'accès aux ressources génétiques et leur partage équitable.

Les chercheurs n’ont pas de droits acquis sur les ressources et les savoirs locaux et les recherches devraient bénéficier aussi à ceux qui y vivent, d’une manière ou d’une autre. «Il s’agit du territoire Inuit et les chercheurs ont un devoir de transparence et de consultation des communautés qui y vivent. C’est dommage que les autochtones n’aient pas été mêlés à ça ni les autorités autochtones consultées», relève encore le Pr Cuerrier.