Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.

Vérification faite

Vérification faite: seulement 75 décibels pour un tramway?

L’AFFIRMATION: «Le Soleil citait récemment un rapport d’experts commandé par la Ville de Québec, qui assurait que «le bruit émis par un tramway s’élève à 75 décibels, alors que celui d’un autobus atteint 75 à 80 décibels et une automobile, 80 décibels». Mais on ne me fera pas croire qu’un tramway dont les roues de métal frottent sur des rails en métal est plus silencieux qu’une voiture. Ça me semble d’autant plus suspect que l’article dit aussi que “le paramètre retenu dans l’industrie est le niveau sonore équivalent sur une période longue et non à l’événement”. Est-ce à dire que le passage du tramway et ses crissements sont noyés dans la moyenne? Quel est le vrai niveau de bruit d’un tramway?» demande Serge Trépanier, de Québec.

LES FAITS

Le rapport en question est le travail de la firme d’ingénierie Systra, une multinationale spécialisée dans les transports et qui possède donc a priori toute l’expertise nécessaire. Dans sa présentation PowerPoint, Systra a bien indiqué que le passage d’un tramway produisait un bruit de 75 décibels (dBA) à 10 mètres de distance, alors qu’une voiture se situerait à 80 dBA. Le rapport lui-même parle plutôt de 78 dBA à 7,5 m (en page 3) pour un tramway.

En ce genre de matière, les conditions concrètes de mesure (type de tramway, sorte de rails, configuration de l’endroit, etc.) peuvent faire une grosse différence, mais tout indique que Systra a retenu un niveau de bruit raisonnable pour le passage d’un tramway. Un rapport français de 2009 bit.ly/2DHNG1D, p. 54], par exemple, a mesuré le bruit du tramway de Nantes en deux endroits, obtenant des niveaux sonores maximaux de 70 à 80 dBA à 7,5 m de distance lorsque le tram filait à 40 km/h — notons ici que la vitesse peut faire une grosse différence. Une étude slovaque publiée en 2016 dans la revue savante Noise & Health a pour sa part trouvé autour de 75 dBA à 7,5 m pour des vitesses d’environ 25 km/h.

Il y a deux choses à ajouter, ici, au sujet du rapport de Systra. La première, c’est que le document a bel et bien tenu compte des grincements métalliques que les tramways produisent souvent dans les courbes. Les auteurs ont en effet ajouté huit décibels à leurs estimés «dans les courbes de faible rayon pour simuler le bruit de crissement, conformément aux directives de la méthode de calcul européenne, CNOSSOS-EU» (p. 3). Vérification faite, il s’agit effectivement de la recommandation européenne pour estimer le bruit dans les courbes de moins de 300 mètres de rayon bit.ly/34LkRNT, p. 57 sur 180]. Ajoutons à cet égard que selon l’étude slovaque de 2016, le crissement fait une différence moyenne de 9,5 dB sur le bruit d’un tramway, ce qui est compatible avec l’ajustement de 8 dBA retenu par Systra.

La seconde chose à savoir, c’est que le rapport de Systra présume que des mesures de réduction du bruit seront prises, comme la construction de murs antibruit dans certains secteurs ou un système de lubrification des rails pour atténuer les crissements (qui passeraient alors de + 8 dBA à + 3 dBA). Ça n’est pas forcément une présomption farfelue, soulignons-le, puisqu’on voit mal l’intérêt de Québec à indisposer les riverains si elle peut l’éviter à faible coût. Mais c’est quand même ce qui permet au rapport de tirer des conclusions très rassurantes : le tramway n’augmenterait le niveau de bruit ambiant pour les maisons riveraines que sur 5 % du tracé. Sans ces mesures d’atténuation, c’est la moitié du tracé qui subirait une pollution sonore accrue.

Quoi qu’il en soit, cependant, il reste que tous les points de comparaison que j’ai pu trouver pointent dans la même direction : le niveau de bruit estimé par Systra semble tout à fait réaliste.

S’il est une chose qui l’est peut-être un peu moins, dans cette histoire, c’est le niveau de bruit des voitures qui, à 80 dBA, fournit un point de comparaison flatteur pour le tramway. Or cela semble un peu trop élevé. Par exemple, dans une étude d’impact au sujet d’un projet de mine d’or, la firme de consultant ERM parle de «60 à 80 dBA» pour une voiture qui passerait à 10 m de distance. De même, une échelle de niveaux de bruit sur le site de l’agence danoise de protection de l’environnement indique autour de 70-75 dBA.

Alors il faut conclure que ces 80 dBA ne correspondent pas au bruit typique d’une auto, mais plutôt aux modèles les plus bruyants. Ce qui, bien sûr, fait ensuite paraître le tramway plus silencieux qu’il ne l’est réellement.

LE VERDICT

Vrai dans l’ensemble. Les 75 dBA que Systra et la Ville de Québec ont retenu comme «bruit typique» d’un tramway concordent bien avec tous les points de comparaison externes que j’ai pu trouver. En outre, la firme a bel et bien tenu compte (dans les règles de l’art) des bruits de crissement dans les courbes. Il semble toutefois que la comparaison avec des voitures à 80 dBA soit artificiellement flatteuse pour le tramway.

Vérification faite

Vérification faite: croisières polluantes à l'extrême?

L’AFFIRMATION: «Dans un article paru récemment dans Paris Match [«Tourisme : le raz de marée» ], on lit que les navires de croisière géants carburent au fioul lourd et que “durant l’escale, les moteurs restent allumés pour alimenter l’électricité [… et] émettrai[en]t 10 fois plus de pollution atmosphérique que toutes les voitures européennes réunies”. Vu le nombre croissant de navires de croisière faisant escale à Québec et le refus du directeur du Port de Québec, Mario Girard, d’installer des prises électriques afin de diminuer cette source de pollution atmosphérique, je me demandais si c’était vrai», demande Thérèse Latour, de Québec.

LES FAITS

L’article de Paris Match affirme que c’est la pollution générale (et pas seulement quand ils sont à quai) des navires de Carnival, le plus important croisiériste au monde, qui «émettrait à lui seul 10 fois plus de pollution atmosphérique que toutes les voitures européennes réunies». La source de cette affirmation n’est pas mentionnée, mais il s’agit manifestement d’un rapport de l’ONG écologiste européenne Transport & Environment publié en juin dernier.

Le document trace un portrait très sombre de la pollution des navires de croisière, mais Paris Match en gonfle quand même un peu le propos : il n’y est nulle part écrit que Carnival émettait 10 fois plus de «pollution atmosphérique» que tout le parc automobile européen, mais bien que le croisiériste rejette 10 fois plus d’oxydes de soufre (SOx). Il s’agit, évidemment, d’une forme de pollution de l’air, mais prendre les SOx comme indicateur et les gaz d’échappement des voitures comme point de comparaison est un brin trompeur dans ce cas-ci. Tant en Europe qu’en Amérique du Nord, les normes d’émissions d’oxydes de soufre pour les véhicules sont devenues beaucoup plus sévères depuis 20 ans — mais pas pour les bateaux.

Au Canada par exemple, jusqu’à la fin des années 1990, l’essence contenait autour de 320 parties par million (ppm) de soufre, et la limite légale était de 5000 ppm pour le diesel utilisé dans les voitures. Or de nos jours, ces carburants ne peuvent plus contenir plus de 15 ppm de soufre, et même 12 ppm dans le cas de l’essence à partir du 1er janvier prochain.

Or, les normes pour les navires de croisière n’ont pas évolué aussi rapidement, même si beaucoup de pays sont en train de les resserrer. En eaux internationales, le plafond actuel est de 35 000 ppm. En Europe pour l’année 2017 (sur laquelle portait le rapport de Transport & Environment), certains pays imposaient une norme de 1000 ppm aux croisiéristes, mais d’autres permettaient jusqu’à 15 000. Alors, il est évident que comparer les émissions de SOx des voitures et des navires noircit artificiellement le portrait : d’autres mesures de pollution de l’air, comme les particules en suspension, donneraient des résultats moins spectaculaires. Et il est donc exagéré de présenter les choses comme Paris Match l’a fait.

Cela dit, cependant, il est incontestable que les croisières sont une activité très polluante, toutes proportions gardées. Plusieurs études scientifiques l’ont prouvé, montrant par exemple que la pollution de l’air sur le pont de certains de ces navires atteint (lorsqu’ils sont à quai) des niveaux comparables à des mégalopoles de Chine. D’autres travaux ont démontré que la présence de ces villes flottantes a un effet notable sur la qualité de l’air dans des endroits comme Barcelone, Dubrovnik et Svalbard.

Il faut cependant ajouter ici que ces résultats ne sont pas forcément applicables au cas de Québec, puisque le Canada possède des normes plus sévères qu’ailleurs : 1000 ppm de soufre au maximum, et ce dans un rayon de 200 milles nautiques des côtes. Cela ne signifie pas que l’on ne peut pas en faire davantage — le rapport de Transport & Environment souligne justement que s’il est possible d’éliminer presque complètement le soufre des carburants pour voitures, ça l’est forcément aussi pour les navires de luxe. Cela n’indique pas non plus que le Port de Québec a fait tout ce qu’il pouvait ou devait faire pour réduire la pollution des croisiéristes. C’est au minimum une question légitime, comme l’avait démontré le collègue François Bourque dans une chronique de septembre. Mais cela sort du sujet de cette vérification-ci…

LE VERDICT

Inexact. Il est vrai que l’industrie des croisières est très polluante, mais le rapport d’où vient l’affirmation parlait de 10 fois plus d’oxydes de soufre que le parc européen de véhicules, pas 10 fois plus de «pollution atmosphérique» en général. En outre, ses résultats ne sont pas forcément transposables au cas du Canada, où les règles en vigueur sur le soufre dans les carburants ne sont pas les mêmes qu’en Europe.

Vérification faite

Vérification faite: le vapotage, aussi dangereux qu’on le dit?

L’AFFIRMATION: «Je trouve que ce qu’on lit sur le vapotage dans les médias, dernièrement, relève de la désinformation. Les morts liées à la cigarette électronique sont, à mon avis, plus attribuables à des produits douteux achetés sur le marché noir qu’au vapotage comme tel. Les experts que j’ai lus sur le sujet sont favorables au vapotage. Alors ça ne peut pas être aussi dangereux qu’on le dit, non?», demande Louis Cornellier, de Joliette.

LES FAITS

Les médias ont effectivement consacré beaucoup d’attention aux risques du vapotage ces derniers temps, et ils n’ont pas toujours fait dans la nuance, pour dire le moins. Par exemple, le European Heart Journal publiait il y a quelques jours une étude qui concluait que la «e-cig» était effectivement dommageable, mais qui a reçu un accueil très mitigé de la communauté scientifique. Plusieurs chercheurs ont trouvé les résultats peu concluants pour diverses raisons — par exemple, la petite taille de l’échantillon ou le fait que des analyses de tissus chez les souris exposées ont montré une substance nommée acroléine, qui est très toxique, mais qui n’est produite que si le liquide de vapotage est littéralement grillé, ce qui n’arrive pas dans les vapoteuses normales.

Mais qu’à cela ne tienne, des médias majeurs d’un peu partout dans le monde ont quand même titré que «le vapotage est si dangereux et addictif qu’il devrait être banni» (Sky News) et qu’«un seul épisode de vapotage […] durcit les artères» (The Independent). Alors oui, il semble bien y avoir une part de désinformation ou de sensationnalisme dans tout cela.

Le fait demeure cependant qu’il existe un authentique débat scientifique au sujet des bienfaits et inconvénients du vapotage : certaines études concluent en faveur de la cigarette électronique, d’autres sont clairement négatives. La clef pour s’y retrouver, ici, est de regarder à quoi on a comparé la «e-cig» pour en évaluer les effets.

De manière générale, les études qui comparent le vapotage à la cigarette «traditionnelle» trouvent que le premier est beaucoup moins pire pour la santé. La semaine dernière, par exemple, le Journal of the American College of Cardiology a publié une étude comparant des fumeurs qui ont troqué la cigarette pour le vapotage et d’autres fumeurs qui ont simplement continué de fumer comme d’habitude. Au bout de seulement un mois, le groupe des vapoteurs montrait de bons signes d’amélioration cardiovasculaire — leurs artères étaient moins rigides et se dilataient plus facilement sous l’effet de la pression sanguine.

Historiquement, me dit-on à l’Institut de la santé publique du Québec, beaucoup des premières études sur la cigarette électronique ont fait ce genre de comparaison parce qu’on voyait surtout le vapotage comme une solution de remplacement ou de sevrage au tabac. Pendant quelques années, d’ailleurs, ce fut l’équipe responsable de la lutte au tabagisme qui a mené seule le dossier à l’INSPQ, mais l’organisme a élargi ses efforts de documentation récemment. Il faut dire qu’il n’y a pas que les fumeurs qui se mettent au vapotage, loin de là. Une étude publiée cette année dans le British Medical Journal a trouvé que 37 % des ados canadiens de 16-19 ans ont déjà vapoté au moins une fois dans leur vie, et que 15 % l’ont fait dans les 30 derniers jours.

La tendance à la hausse chez les jeunes est observée un peu partout ces dernières années, ce qui explique sans doute en bonne partie l’intérêt des chercheurs pour le vapotage en lui-même, sans le comparer au tabac. Et sans ce point de comparaison très avantageux, plusieurs études trouvent bel et bien des effets nocifs à la cigarette électronique, suggérant des liens avec le cancer, des problèmes pulmonaires, etc. Il reste encore beaucoup de recherche à faire parce qu’il s’agit d’un phénomène assez nouveau, mais il est indéniable que la cigarette électronique vient avec des risques pour la santé : «moins pire que la cigarette» ne signifie pas «sans danger». La plupart des instances de santé publique dans le monde ont d’ailleurs maintenant une page sur ces risques — notamment Santé Canada.

Ces derniers mois, d’ailleurs, une vague de problèmes pulmonaires assez graves a été liée au vapotage. Aux dernières nouvelles, la santé publique américaine comptait plus de 2000 cas de blessures aux poumons et 42 décès depuis mars dernier. On déplore trois cas au Québec jusqu’à maintenant.

Il est vrai, comme le signale M. Cornellier, que jusqu’à maintenant l’enquête montre surtout du doigt des usages irréguliers des vapoteuses. Pas moins de 86 % des patients touchés disent avoir consommé des produits dérivés de cannabis avec leur vapoteuse, et l’on soupçonne plus particulièrement un additif (l’«acétate de vitamine E») souvent utilisé par le marché noir pour rendre la mari «vapotable». Mais on ne comprend pas encore bien le phénomène, alors il reste théoriquement possible que l’utilisation régulière des vapoteuses soit (un peu) en cause.

En outre, on sait que des produits nocifs autres que l’acétate de vitamine E sont présents dans les liquides de vapotage — par exemple le diacétyle, présent dans le maïs soufflé et qui a déjà causé des problèmes respiratoires à des travailleurs d’usine de pop-corn.

LE VERDICT

En partie vrai. Il semble bien démontré que la cigarette électronique est beaucoup moins pire que le tabac, mais celui-ci est un point de comparaison artificiellement flatteur. Les dangers du vapotage ne sont sans doute pas aussi dramatiques que ce que certains médias ont laissé entendre, mais ils n’en sont pas moins assez sérieux pour préoccuper bien des instances de santé publique dans le monde.

Vérification faite

Vérification faite: l’immigration tire-t-elle les salaires vers le bas?

L’AFFIRMATION: «C’est un jeu d’offre et de la demande. Plus il y a de main-d’œuvre au Québec, plus on peut garder les salaires bas, plus on est capable de trouver des employés à 12-15 $ de l’heure. Il faut être prudent. Ma responsabilité, c’est de défendre les intérêts des Québécois», a déclaré le premier ministre François Legault, la semaine dernière, pour répondre aux critiques des chambres de commerce au sujet de sa réforme du Programme de l’expérience québécoise (PEQ) en immigration. Cette réforme a été abandonnée depuis, mais voyons quand même si l’immigration tire vraiment les salaires vers le bas.

LES FAITS

Le raisonnement de M. Legault peut se défendre, car l’idée que plus une chose est abondante, moins elle vaut cher, est effectivement une des «lois fondamentales» des sciences économiques. Et elle vaut pour les biens comme pour le marché du travail : en théorie, quand il y a beaucoup de chômeurs (l’«offre» de travail) qui veulent combler les postes disponibles (la «demande»), on peut s’attendre à ce que les salaires déclinent.

En pratique, cependant, le marché du travail est plus compliqué que ça, entre autres parce qu’il n’y a pas «un» grand bassin de chômeurs qui se battent pour combler un bassin unique d’emplois — chaque personne a ses qualifications qui les dirigent vers certains postes plutôt que d’autres. Et le marché du travail peut s’ajuster de diverses manières à la disponibilité de la main-d’œuvre.

Si bien que quand les économistes regardent l’effet de l’immigration sur les salaires, la plupart ne trouvent rien, ou presque. Tous ceux à qui Le Soleil a soumis la question (Serge Coulombe de l’Université d’Ottawa, Nicholas Lawson de l’Université de Montréal, Pierre Fortin de l’UQAM, ainsi que Bernard Fortin et Guy Lacroix de l’Université Laval) s’entendent pour dire qu’il est difficile de mesurer l’impact de l’immigration sur les salaires, mais que les études qui l’ont fait ont généralement constaté un effet faible et à court terme. Même son de cloche dans une revue de littérature parue récemment dans Options politiques et dans un rapport de l’Institut du Québec paru au printemps.

Il semble que c’est surtout dans des cas extrêmes que l’on parvient à «voir» un effet négatif sur les salaires. Par exemple, pendant cinq mois en 1980, le régime castriste a permis à ses citoyens de quitter Cuba. Plus de 125 000 personnes ont saisi l’occasion, et la plupart sont allés s’établir à Miami. Cette grande ville floridienne a alors vu sa main-d’œuvre gonfler de 7 % en seulement quelques mois, et la majorité de ces nouveaux arrivants avaient tous le même profil «peu qualifié» — 56 % n’avaient jamais atteint l’école secondaire. Mais quand l’économiste américain David Card a regardé l’effet sur le marché du travail de Miami, il a réalisé que les salaires et les taux d’emploi des «natifs» n’ont que peu diminué comparés à d’autres villes américaines semblables, et qu’au bout de trois ans, toute apparence d’impact négatif avait disparu.

Ces conclusions ont été débattues par la suite et le sont encore, mais d’autres études sont arrivées aux mêmes conclusions. Ainsi, l’économiste Jennifer Hunt (une ancienne de l’UdeM et de McGill, maintenant à Rutgers) a trouvé que quand la France a rapatrié environ 900 000 personnes d’Algérie en l’espace d’un an en 1962, l’effet négatif sur le chômage au bout de cinq à six ans fut «au maximum de 0,3 point de pourcentage» et celui sur les salaires «au maximum de 1,3 %».

Une des raisons pour expliquer la faiblesse de cet effet — ou du moins, la difficulté à le mesurer — est que les immigrants ne font pas qu’occuper des postes, dit Nicholas Lawson, de l’UdeM. «Ils sont aussi des consommateurs, ils vont acheter des choses, et s’ils sont peu qualifiés, ils vont peut-être acheter des produits et services d’autres travailleurs non qualifiés», et leur présence va ainsi créer d’autres emplois, explique-t-il. D’autres facteurs peuvent aussi entrer en ligne de compte, comme une complémentarité entre les compétences des immigrants et des travailleurs locaux, ou encore qu’un accroissement de la population active incite parfois des employeurs à embaucher, lit-on dans le rapport de l’Institut du Québec.

En outre, il est loin d’être clair que des exemples comme celui de Miami s’appliquent bien à la réalité québécoise, puisque les immigrants qui s’installent au Canada sont en moyenne beaucoup plus instruits que l’étaient les réfugiés cubains de 1980 : les deux tiers détiennent une formation postsecondaire, et c’est même 72 % au Québec. «Alors ces gens-là ne concurrencent pas les travailleurs à faible revenu, dit Guy Lacroix, de l’UL. […] Ça prendrait vraiment un raz-de-marée pour qu’ils viennent affecter le revenu des travailleurs canadiens.»

Cela dit, «pas d’impact sur les salaires» ne signifie pas «aucun effet sur le marché du travail», nuance Serge Coulombe, de l’UO. Ses travaux ont montré qu’au Québec, les «travailleurs étrangers temporaires» ont un effet direct sur les migrations interprovinciales : plus on embauche de ces «temporaires», moins le Québec attire de travailleurs des autres provinces, possiblement parce qu’il y a alors moins de postes disponibles. M. Coulombe n’a toutefois pas trouvé le même genre d’effet pour l’immigration générale, issue du système régulier de sélection des immigrants.

M. Coulombe est aussi d’avis que «dans la conjoncture actuelle» où bien des employeurs peinent à combler leurs postes vacants, les salaires devraient s’accroître si on laissait les lois du marché agir seules — ou alors certains secteurs de l’économie réduiraient leurs activités. Prise en ce sens, dit-il, la déclaration de M. Legault serait plus vraie dans la mesure où l’immigration, en comblant en partie cette rareté de la main-d’œuvre, empêcherait les salaires d’augmenter autant que s’il y avait moins de nouveaux arrivants.

LE VERDICT

Exagéré. Il est difficile de mesurer l’impact de l’immigration sur les salaires, mais les études qui l’ont fait ont pour la plupart trouvé un effet faible et à court terme. L’immigration peut cependant avoir d’autres impacts sur le marché du travail et l’économie.

Vérification faite

Vérification faite: plus de CO2 à cause du Ciment McInnis?

L’affirmation: «On entend souvent des gens dénoncer la construction de la cimenterie McInnis et le fait qu’elle augmentera de 2 % la quantité de gaz à effet de serre (GES) émis au Québec. Mais à ce que je sache, la production de ciment, qu’elle soit au Québec ou ailleurs, produit grosso modo la même quantité de CO2. Alors est-ce qu’il est vrai que la cimenterie McInnis augmente globalement l’empreinte carbone à l’échelle planétaire?

Autrement dit, si on n’avait pas construit la cimenterie et qu’on achetait notre ciment aux États-Unis, aurait-on diminué l’empreinte carbone?» demande Benjamin Couillard, de Québec.

LES FAITS

La production de ciment produit toujours beaucoup de gaz carbonique (CO2) pour deux raisons. La première, c’est qu’elle demande de chauffer du calcaire (et quelques autres composés minéraux) à des températures d’environ 1500 °C, ce que l’on fait généralement en brûlant des hydrocarbures. La seconde raison, c’est que ce chauffage vient briser des carbonates (CaCO3) contenus dans le calcaire, ce qui relâche encore plus de CO2.

Il ne fait aucun doute qu’à pleine capacité, la cimenterie McInnis ajoute environ 2 % aux émissions québécoises. Le dernier bilan du ministère de l’Environnement parle de près de 79 millions de tonnes d’équivalent CO2 par année [bit.ly/2NM4Obc], et de l’aveu même du directeur de la cimenterie de Port-Daniel, celle-ci doit rejeter 1,76 Mt annuellement  — donc 2,2 % du total.

Maintenant, à plus large échelle, est-ce que le ciment de McInnis va venir s’ajouter à la production mondiale, ou est-ce qu’il va remplacer celui d’installations plus anciennes, moins compétitives et moins «vertes», qui seront éventuellement poussées à la fermeture (ce qui serait donc une bonne chose, finalement)?

C’est un argument souvent évoqué par les porte-paroles de la cimenterie elle-même. Et il semble effectivement y avoir un fond de vérité là-dedans : pour chaque tonne de ciment produit, la cimenterie de Port-Daniel dit émettre 790 kg de CO2, ce qui est moins que la moyenne nord-américaine de 900-935 kg, selon le Centre pour le climat de l’Université Columbia.

Notons qu’il n’a pas été possible de valider directement ce chiffre de 790 kg de CO2 par tonne de ciment. Les émissions de la cimenterie sont publiques, mais elle n’a pas voulu dévoiler sa production de ciment.

Il est par ailleurs prévu que les nouvelles installations gaspésiennes finissent par intégrer de la biomasse à leurs sources de carburant, ce qui réduirait ses émissions de 150 000 tonnes de CO2 par année, ou près de 10 %. Cependant, lorsque contactée par Le Soleil, la porte-parole de la cimenterie Maryse Tremblay n’a pas donné d’échéancier pour la réalisation de ce projet, se contentant de dire que l’étude de faisabilité «devrait être terminée dans les prochains mois». Il faudra donc attendre encore pour voir si cette part des promesses de McInnis se réalise.

Quoi qu’il en soit, «c’est un débat qui est très proche de celui sur les pipelines, remarque le chercheur Pierre-Olivier Pineau, de la Chaire en gestion de l’énergie des HEC Montréal : si on empêche la construction d’un pipeline, est-ce qu’on va vraiment avoir une influence sur la consommation d’hydrocarbures [NDLR : qui est la principale source de GES]?»

De manière générale, dit-il, la réponse est plutôt non. La fermeture de la raffinerie de Shell à Montréal en 2011 en est une belle illustration : cela n’a pas fait diminuer la consommation d’essence au Québec, ni même ralenti l’engouement des Québécois pour les véhicules énergivores comme les VUS. Cela n’a essentiellement que déplacé le site de production du carburant vers les autres raffineries du continent. Et on peut penser que la même règle prévaut pour le ciment.

En outre, ajoute M. Pineau, «si on veut s’opposer aux nouveaux émetteurs, alors arrive la question : est-ce qu’on ne va garder que les vieilles installations moins performantes? Et ce ne serait pas une bonne chose.»

Tout cela est vrai, confirme pour sa part un autre expert en politiques énergétiques, le physicien de l’Université de Montréal Normand Mousseau. Cependant, depuis le Protocole de Kyoto (1997) la compatibilité des GES se fait sur une base territoriale, là où ils sont émis, «alors il faut jouer avec les règles actuelles, qui ont leurs qualités et leurs défauts», indique-t-il.

«En principe, la solution parfaite serait de dire que c’est le consommateur final qui va payer, avec une taxe qui suit le produit jusqu’à la fin, où c’est le client qui la paye. Mais ça impliquerait de mettre en place tout un système de suivi qui serait assez lourd», dit M. Mousseau.

Alors dans le système actuel (imparfait) où les émissions sont comptabilisées sur une base territoriale, l’arrivée de Ciment McInnis dans le décor représente effectivement une hausse du bilan carbone du Québec. Mais si d’autres cimenteries arrêtent leur production ailleurs sur le continent, la baisse de GES qui y est associée sera comptabilisée là où elle se produira.

LE VERDICT

À l’échelle québécoise, oui, l’arrivée de Ciment McInnis représente une hausse des GES, de l’ordre de 2 %. Mais à plus grande échelle, tout indique que non : à terme, la production de Port-Daniel ne s’ajoutera pas au reste, mais va remplacer une partie de la production actuelle, apparemment de manière plus propre.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite

Vérification faite: les sondages influencent-ils le vote?

L’AFFIRMATION: «Les sondages sont de plus en plus nombreux et de plus en plus pointus [par circonscription] pendant les campagnes électorales, et on entend souvent dire qu’ils influencent le vote. Mais jusqu’à quel point est-ce vrai? Y a-t-il des études là-dessus? Des gens sont-ils vraiment tentés de voter comme la majorité ou alors contre un candidat, et ainsi priver un tiers parti des votes nécessaires à sa survie?» demande Gilles Labrecque, de Saint-Jean-Port-Joli.

LES FAITS

Sans le contexte, la plupart des gens diraient que la citation suivante doit dater d’il y a à peine 10 ou 15 jours, alors que la campagne fédérale s’achevait : «Était-il bon ou néfaste que ces sondages aient été rendus publics? Ces chiffres peuvent-ils avoir influencé l’opinion publique? Et si tel est le cas, était-ce une mauvaise influence?»

En fait, il s’agit d’un extrait du livre Are Opinion Polls Useful? (Les sondages d’opinion sont-ils utiles?), qui fut publié en… 1946, lit-on sur le site de l’Association d’histoire américaine. Alors oui, il y a eu des études sur l’influence des sondages et, depuis le temps, il y en a même eu beaucoup.

Que disent-elles? Dans l’ensemble, on ne peut pas dire que leurs résultats montrent clairement une influence des sondages sur le vote populaire. Du moins, pas une grosse, et pas au sens où on l’entend habituellement, où des individus décident de changer leurs intentions de vote pour «suivre» la majorité — j’y reviens tout de suite. Certaines études ont trouvé des signes d’un effet des sondages, mais d’autres non.

Par exemple, une étude danoise récente a comparé les intentions de vote de trois groupes lors d’une campagne électorale. Un groupe s’est simplement fait demander pour qui ils comptaient voter : 18 % d’entre eux ont dit qu’ils comptaient appuyer le Parti social-démocrate (PSD). Un autre groupe a dû lire au préalable un (faux) article de nouvelle sur un sondage qui montrait prétendument le PSD en perte de vitesse : 16 % ont ensuite dit qu’ils allaient voter PSD. Et un troisième groupe a été exposé à un autre faux sondage qui indiquait, lui, que le PSD était en progression : 22 % de ces gens ont ensuite affirmé qu’ils appuieraient le PSD.

Cependant, les différences entre ces groupes n’étaient pas toutes «statistiquement significatives», ce qui signifie que les chances pour que ces écarts soient simplement dus au hasard sont trop fortes pour qu’on les considère tous comme «réels». Et ce, même si l’échantillon était assez grand (autour de 600 personnes par groupe), ce qui suggère fortement que l’effet des sondages, en présumant qu’il existe, serait plutôt faible.

D’autres travaux ont eux aussi conclu à un effet réel, mais assez faible (par exemple : stanford.io/34jyAdR), mais il y a aussi des études qui n’ont pas trouvé de signes montrant que les sondages ont vraiment un «effet de contagion» (les gens suivent la majorité) ou de «découragement» (des électeurs qui ne votent pas parce qu’un autre parti que le leur semble trop fort). Ainsi, des chercheurs des universités de Montréal, McGill et Waterloo ont publié l’année dernière des résultats portant précisément là-dessus dans la revue Options politiques. Il s’agissait de sondages «en deux temps» administrés avant et après les élections fédérales et provinciales de 2007 à 2015 au Québec. Et en demandant aux participants s’ils lisaient les sondages, ces chercheurs ont réalisé qu’en fait, les électeurs qui prêtent le plus attention aux sondages sont ceux qui sont les moins susceptibles de changer de parti au cours de la campagne. De plus, leur taux de participation est plus élevé que la moyenne (donc pas d’effet de découragement) et ils ne sont pas plus nombreux que les autres à voter pour le parti qui est en tête dans les sondages.

Ce sont là des comportements qui ne sont pas du tout cohérents avec l’idée que les sondages influencent vraiment le vote. Et ils ne surprennent plus la chercheuse Claire Durand, spécialiste des sondages de l’Université de Montréal et coauteure de cette étude : «Ça fait cinq élections qu’on fait cet exercice-là et qu’on voit la même chose à chaque fois», m’a-t-elle dit en entrevue.

Ces résultats montrent par ailleurs que les électeurs les plus susceptibles de changer leur fusil d’épaule pendant une campagne électorale sont ceux qui ont l’intention de voter pour des «petits» partis. Par exemple, aux provinciales de 2008, les partisans de Québec solidaire, d’Option nationale et du Parti vert ont été (proportionnellement) entre 3 et 17 fois plus nombreux à changer d’idée avant le scrutin que ceux du Parti québécois.

Évidemment, on peut voir là-dedans un signe que les sondages favorisent le «vote stratégique» (voter pour un choix autre que son favori afin de bloquer un autre parti), et il est entièrement possible que les sondages aient ce genre d’effet. Mais il s’agit là d’un «effet d’information», souligne Mme Durand, pas d’un effet d’influence (au sens de «contagion») à proprement parler, comme on l’entend si souvent.

«Tout indique, concluent Mme Durand et ses collègues dans Options politiques, que la décision prise par les électeurs dépend beaucoup plus des positions et messages véhiculés par les partis et leurs chefs, ou du simple attachement à un parti, que de l’information que fournissent les sondages sur la popularité des partis. Nous pensons qu’il y a une surestimation de l’effet des sondages dans la sphère et les débats publics, puisque les analyses montrent que les sondages n’ont pas une influence importante sur le choix électoral des citoyens. Ils sont plutôt une information parmi d’autres utilisée dans le processus de décision.»

LE VERDICT

Loin d’être clair. Certaines études suggèrent que les sondages provoquent bel et bien un effet d’entraînement à la faveur du meneur ou d’un parti en progression, mais d’autres travaux arrivent à des conclusions contraires. Dans tous les cas, si effet il y a, il semble qu’il soit de faible envergure.

Vérification faite

Vérification faite: le cochon est-il capable d'«espoir»?

L’AFFIRMATION: «Une campagne publicitaire dans le métro de Montréal a fait grand bruit récemment. On pouvait y lire plusieurs affirmations sur ce que ressentent les animaux, comme “Ils nourrissent des espoirs comme nous”. Alors je me demandais : est-ce vrai? Est-ce que des études démontrent que les animaux de ferme ont de tels sentiments?» demande Yvan Bastien, de Sainte-Anne-des-Plaines.

LES FAITS

De manière générale, il existe un consensus solidement établi chez les spécialistes du comportement pour dire que les animaux ressentent des sentiments — en tout cas ceux qui ne sont pas trop primitifs, mais cela inclut certainement les animaux de ferme. Cela a été démontré de multiples manières telles que la mesure d’hormones associées à des émotions (l’adrénaline ou la sérotonine, par exemple) et l’observation des comportements (comme les signes d’attachement entre une mère et ses petits).

Mais ressentent-ils ces sentiments «comme nous», ainsi que l’affirmait la campagne du groupe animaliste Be Fair Be Vegan le mois dernier dans ses affiches du métro de Montréal? Et ces sentiments incluent-ils l’«espoir», qui implique une certaine conception du futur et la faculté de formuler des attentes? Ce sont des questions auxquelles il est beaucoup, beaucoup plus difficile de répondre, estiment deux experts consultés par Le Soleil, soit le vétérinaire de l’Université de Montréal Émile Bouchard et le spécialiste du comportement et du bien-être animal de l’Université Laval Jaimie Ahloy Dallaire.

Il est évident que des différences majeures doivent exister puisque les émotions sont situées dans le cerveau, et que le cerveau humain diffère beaucoup de celui des animaux, à bien des égards, dit ce dernier. Mais on a aussi des raisons de croire qu’il y a des ressemblances significatives, notamment parce que dans tous les cas, «les émotions sont des adaptations évolutives. Nous avons peur parce que ça nous motive à éviter le danger; faim parce que ça nous motive à nous alimenter. Ultimement, ces actions augmentent notre capacité à survivre et à nous reproduire. Dans cette perspective, on peut s’attendre à ce que les espèces ayant une histoire évolutive partagée aient des émotions en commun, qui fonctionnent à peu près de la même façon».

Reste à savoir jusqu’à quel point, ce qui n’est pas une mince tâche...

«Ce que je peux vous dire, ajoute pour sa part M. Bouchard, c’est que la vache [sa spécialité, NDLR] est un animal grégaire qui est considéré comme une proie plutôt qu’un prédateur. Il est bon de se rappeler que la vache est un animal domestique qui n’existe plus à l’état sauvage. Le fait d’être protégée dans une étable à logette avec des matelas, hébergée avec des congénères et nourrie deux fois par jour réduit beaucoup le stress chez la vache. De plus, avec l’introduction des robots de traite, on diminue de plus en plus le stress lié à la manipulation des animaux par l’humain. […] Est-ce que la vache est heureuse et se préoccupe du sort du Canadien de Montréal? Je ne sais pas, à moins de tomber dans l’anthropomorphisme. Est-ce que la vache souffre dans les conditions d’élevage actuelles? Non, selon mes connaissances et mes relations de médecin vétérinaire avec les vaches.»

M. Dallaire, de son côté, est d’accord pour dire que la domestication a beaucoup changé le comportement des animaux de ferme, mais il signale quand même qu’il reste encore des vestiges évidents des instincts passés. Par exemple, illustre-t-il, même de nos jours la truie a le réflexe de se construire un nid juste avant de mettre bas, dans la mesure où on lui donne le matériel qu’il faut. Si elle ne le peut pas, ce qui est habituellement le cas dans les élevages, elle devient plus agitée pendant la période de «nidification» — mais même là, nuance le chercheur, il est difficile de dire si l’on a affaire à une recherche «frustrée» de matériaux ou à une agitation due à autre chose.

«Est-ce que l’animal souffre de ne pas pouvoir s’adonner à ce comportement naturel? Ou, à l’inverse, est-ce qu’il le fait s’il en a la possibilité, mais sans s’en ennuyer s’il ne le peut pas? On peut poser ces mêmes questions pour le tétage chez le veau, le broutage dans l’herbe chez la vache, l’utilisation d’une bauge chez le porc, l’utilisation de perchoir ou le bain de sable chez la poule, le jeu chez les juvéniles de plusieurs espèces et ainsi de suite. Il n’est pas si facile de trouver une réponse pour chaque comportement chez chaque espèce. [...] C’est vraiment au cas par cas : les recherches jusqu’ici tendent à démontrer que certains comportements naturels pourraient être des besoins, d’autres non», explique M. Dallaire.

On trouve un flou du même genre autour de la notion d’«espoir». On a de bonnes indications que les animaux sont capables de se projeter dans l’avenir, explique M. Dallaire. Par exemple, des chercheurs ont fait l’expérience de placer des geais, une espèce connue pour faire des réserves de nourriture, trois jours dans un compartiment où ils pouvaient s’alimenter à leur guise, puis trois jours dans un autre compartiment sans nourriture. Ensuite, on a (re)nourri les oiseaux avant de leur donner des noix à stocker — et c’est principalement dans le second compartiment, celui où ils avaient dû jeûner, qu’ils ont caché leurs réserves.

Donc la base pour concevoir des «espoirs» est là, mais cela ne prouve pas pour autant qu’ils le font. «Bref, résume M. Dallaire, est-ce qu’une vache espère donner naissance à un veau, l’élever, le voir grandir? Je ne pense pas qu’on soit en mesure pour l’instant [de ce que j’en sais] d’affirmer que oui ou que non. C’est une réponse plate, mais ce n’est vraiment pas facile à étudier.»

VERDICT

Pas clair du tout. Il est acquis que les animaux ont des émotions, des sentiments, mais il n’est ni évident, ni démontré qu’ils les ressentent «comme nous». Plus particulièrement, la même incertitude prévaut pour leur faculté à «espérer» : on est sûr qu’ils ont une certaine conception du futur, mais de là à leur prêter des «espoirs comme nous», il y a un grand pas que la science ne permet pas de franchir, du moins pas pour l’instant.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite

Vérification faite: 53 milliards$ de coupes conservatrices?

L’AFFIRMATION: «Les conservateurs ont attendu jusqu’à la dernière minute pour essayer de partager leur plateforme en catimini parce qu’ils ne veulent pas que les gens voient à quel point c’est 53 milliards $ de coupures qu’ils vont infliger aux Canadiens», a scandé le chef libéral Justin Trudeau en réaction à la publication du programme chiffré des conservateurs, qui prévoit juguler le déficit fédéral d’ici 2024-25.

LES FAITS

Les intentions que M. Trudeau prête à ses adversaires — «attendu jusqu’à la dernière minute», «en catimini», «ne veulent pas que les gens voient» — ne sont pas vérifiables dans une chronique comme celle-ci. Mais le montant des coupes annoncées par le chef conservateur Andrew Scheer le week-end dernier, lui, l’est tout à fait.

Le plan du PCC se chiffre en deux parties. Dans l’une, il annonce de nouvelles dépenses et réductions d’impôts. Dans l’autre, il détaille des «mesures d’économie et de recettes», c’est-à-dire des coupes et des actions destinées à augmenter les revenus du gouvernement (la lutte à l’évasion fiscale, par exemple). Parmi les «mesures d’économie», les principales sont un allongement du plan libéral d’infrastructures (187 milliards $ sur 15 ans au lieu de 12, ce qui dégage 18 milliards $ d’économie sur cinq ans) et des «réductions des dépenses de fonctionnement» (19 milliards $ sur cinq ans). Notons que les conservateurs nient que d’étaler le plan d’infrastructures sur trois ans de plus est vraiment une «coupure» puisqu’ils prévoient dépenser les mêmes sommes — juste sur une période plus longue. Il y a un fond de vérité dans cet argument, disons-le, mais comme l’effet final demeure de réduire les dépenses annuelles en infrastructures, je l’ai quand même rangé parmi les coupes.

À partir de là, il y a deux grandes manières de mesurer l’effort budgétaire que proposent les conservateurs. On peut ne regarder que les coupes et en faire l’addition. C’est ce que semble faire M. Trudeau puisque j’arrive personnellement à 57 milliards $ de réduction des dépenses au cours du prochain mandat.

Ce n’est «pas faux», comme on dit, mais cela donne quand même un portrait incomplet de la situation. Par exemple, si un gouvernement procède à des coupes à hauteur, disons, de 10 milliards $, mais engage pour 20 milliards $ de nouvelles dépenses par ailleurs, on ne peut pas vraiment dire qu’il mène une politique d’austérité juste à cause de ses 10 milliards $ d’économie.

Si l’on veut tenir compte aussi des nouvelles dépenses prévues par les conservateurs, on peut simplement regarder leurs soldes budgétaires annuels pour le prochain mandat. Leur point de départ est un déficit de 23 milliards $ en 2020-21, qu’ils coupent de 8 milliards $ l’année suivante, puis de 5 à 6 milliards $ par année jusqu’à 2024-25. Au total, cela donne environ 24 milliards $ de coupes budgétaires au cours du prochain mandat.

Or comme une réduction du déficit était déjà prévue par le Directeur parlementaire du budget, on peut aussi comparer le plan conservateur à ces prévisions. On doit alors parler de 17 milliards $ de coupes additionnelles par rapport à ce qui était déjà prévu. Dans les deux cas, c’est nettement moindre que les 53 milliards $ dont parle M. Trudeau.

Il faut cependant ajouter une dernière précision au sujet de la plateforme conservatrice. Elle prévoit environ 49 milliards $ de nouvelles «dépenses» au cours du prochain mandat, mais sur cette somme, j’ai compté 34 milliards $ en baisses d’impôts et de taxes diverses. D’un point de vue comptable, l’effet est le même que celui d’une dépense, et c’est la raison pour laquelle plusieurs partis politiques (et pas seulement le PCC) comptent leurs promesses d’allégements fiscaux comme des «dépenses». Ce n’est pas illégitime.

Mais cette classification a toujours laissé un certain nombre d’observateurs un peu perplexes parce que les baisses d’impôts ne sont pas des «dépenses» à proprement parler, mais plutôt une diminution des revenus de l’État. Il n’y a rien de mal à réduire les impôts, remarquez, mais du point de vue de l’«austérité», certains peuvent trouver que cela ne peut pas compter comme une dépense — ce qui n’est pas illégitime non plus.

VERDICT

Incomplet. Il y a bel et bien plus de 50 milliards $ en réduction de dépenses dans la plateforme conservatrice. Mais cela ne tient pas compte des dépenses supplémentaires prévues par le PCC. Si l’on ramène ces dépenses dans le portrait, les coupes conservatrices sont deux à trois fois moindres, selon la façon retenue pour les calculer.

Vérification faite

Vérification faite: la pénurie de main-d’œuvre plus sévère en région?

L'AFFIRMATION: «C’est un enjeu qui touche le Québec entier, mais particulièrement les régions plus éloignées. Partout, les entreprises ont de la difficulté à embaucher du personnel et sont contraintes de réduire leurs activités, voire à fermer leurs portes. Le fédéral, cet ordre de gouvernement loin des gens et surtout des régions, semble inconscient de l’ampleur du problème et n’apporte aucune solution. Nous proposons donc aujourd’hui toute une série de mesures concrètes pour venir en aide à nos économies régionales», a déclaré le chef du Bloc québécois, Yves-François Blanchet, lors d’un point de presse récent [http://bit.ly/2ICpL6A].

LES FAITS

Les économistes ne s’entendent pas tous sur le terme à employer, mais l’idée qu’une «pénurie» ou qu’une «rareté» assez prononcée de la main-d’œuvre affecte présentement le Québec rallie une majorité d’observateurs. La question est : est-il vrai que le phénomène affecte davantage les régions que les grandes villes?

Une mesure classique des pénuries de main-d’œuvre est le «taux de postes vacants» — soit le pourcentage de tous les emplois (occupés ou vacants) qui restent à pourvoir. Statistique Canada en fait d’ailleurs un décompte trimestriel. Or, si ces chiffres montrent bel et bien une rareté de travailleurs qui s’aggrave, on n’y voit nulle part de signe qu’elle est plus sévère en région qu’en ville. Dans les régions urbaines (Montréal, Laval, Québec et Outaouais) ou dont la population est nettement dominée par la banlieue d’un grand centre urbain (Lanaudière, par exemple), le taux de postes vacants est passé de 1,8 % en 2015 à 3,5 % pendant la première moitié de 2019. Dans les «régions», ce même indicateur a cru de 1,6 à 3,5 %.

(J’ai aussi fait ce même calcul en classant les endroits qui ont «une fesse en ville et une fesse en campagne» [Laurentides, Lanaudière et Montérégie] dans les «régions», et cela n’a presque pas changé le résultat.)

Il y a bel et bien certaines régions où les employeurs semblent avoir plus de difficultés que le reste du Québec à embaucher : Chaudière-Appalaches affiche un taux de postes vacants de 4,2 %, par exemple. Mais il y en a aussi d’autres où c’est l’inverse — le Saguenay–Lac-Saint-Jean est à 2,7 % et la Gaspésie, à 3,0 %.

Dans une étude publiée en mars dernier, Desjardins a trouvé essentiellement la même chose, soit qu’il y a des régions et des secteurs où c’est pire, et d’autres où ça l’est moins. Et les quelques économistes que j’ai sollicités partagent grosso modo le même constat : rien n’indique que c’est vraiment pire en régions qu’en ville.

Luc Bissonnette, de l’Université Laval, est du nombre. «Ça ne veut pas dire que c’est facile en région, souligne-t-il. C’est juste que c’est difficile partout, mais pour des raisons qui peuvent être différentes. Les régions ont des structures démographiques très différentes des villes. C’est très difficile pour elles d’attirer de nouveaux travailleurs. […] Les villes n’ont pas ce problème-là, mais la croissance est très forte dans plusieurs secteurs.»

En principe, ajoute-t-il, une pénurie de main-d’œuvre entraîne les salaires à la hausse. «Il y a des secteurs où c’est le cas. Par exemple, on voit de plus en plus de restaurateurs afficher des postes pas mal en haut du salaire minimum. Ça, c’est un signe qu’on a affaire à une pénurie. Mais dans plusieurs autres secteurs, ce n’est pas évident.»

C’est la raison pour laquelle M. Bissonnette n’est pas convaincu qu’on ait vraiment affaire à une «pénurie» de main-d’œuvre au sens classique — c’est-à-dire une demande de travail qui serait clairement supérieure à l’offre. «J’aime bien faire la comparaison avec une offre pour acheter une Lamborghini à 15 000 $, illustre-t-il. Le fait que personne ne veuille me vendre cette voiture à ce prix n’est pas un indicateur d’une pénurie, mais plutôt que mon offre est sous le prix du marché. En ce moment, plusieurs postes vacants offrent tout simplement des conditions qui n’intéressent pas les travailleurs.»

M. Bissonnette admet toutefois d’emblée que sa position est minoritaire et que beaucoup de ses collègues économistes parlent de «pénurie».

VERDICT

Faux. La «pénurie» ou la «rareté» de main-d’œuvre, peu importe comment on l’appelle, est une réalité indéniable, mais rien n’indique pour l’instant que les régions en souffrent davantage que les principaux centres urbains du Québec.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite

Vérification faite: 2 milliards d’arbres contre les GES?

L’AFFIRMATION: «Cela nous aidera aussi à atteindre près de 40 % de nos cibles de réduction des émissions [de gaz à effet de serre]», lisait-on dans un communiqué de presse du Parti libéral du Canada à propos de sa promesse de planter 2 milliards d’arbres d’ici 10 ans.

LES FAITS

Il est vrai que les arbres captent du CO2 dans l’atmosphère pour le transformer (avec de l’eau et de l’énergie solaire) en sucres. La question est : 2 milliards d’arbres en capteront-ils suffisamment pour combler 40 % des cibles canadiennes de GES?

Les objectifs du Canada en cette matière sont ceux de l’Accord de Paris, dont les signataires se sont engagés à ramener d’ici 2030 leurs émissions à 30 % sous leurs niveaux de 2005. Le Canada a rejeté 732 mégatonnes (Mt) de gaz carbonique (et équivalents) en 2005, si bien qu’il doit couper ce chiffre de 219 Mt d’ici la fin des années 2020. Les libéraux ont également évoqué une autre cible dans leur communiqué, soit celle d’en arriver à «zéro émission nette» d’ici 2050.

Or, dans un cas comme dans l’autre, les 2 milliards d’arbres sont loin de représenter 40 % des objectifs. Le premier ministre Justin Trudeau a indiqué en conférence de presse que ces arbres allaient retirer 30 Mt de CO2 de l’atmosphère d’ici 2030. Mais cela représente moins de 14 % de l’Accord de Paris (-219 Mt d’ici 2030).

Le constat est le même pour l’autre cible de «zéro émission nette d’ici 2050». D’après le plus récent bilan fédéral, le Canada a émis 704 Mt de GES en 2017. Si rien n’est fait au cours des trois prochaines décennies, cela représente 21 120 Mt d’émissions totales. D’après certaines sources crédibles [bit.ly/2SSe9jM et bit.ly/2K5igX5], un arbre de bonne taille peut capter environ une tonne de CO2 sur 40 ans. Si l’on présume que les 2 milliards d’arbres promis survivent tout ce temps, cela représente donc à 2000 Mt d’ici 2060, donc moins de 10 % de l’objectif à atteindre — avec 10 ans de retard. Et encore, c’est un calcul très optimiste. Par exemple la firme québécoise Arbre Évolution, qui a notamment travaillé avec le Grand Prix de Trois-Rivières pour compenser ses émissions, compte toujours beaucoup moins qu’une tonne par arbre afin de tenir compte de la mortalité, notamment.

Alors comment le PLC arrive-t-il à ce chiffre de 40 %? D’après les réponses des relationnistes du parti, il semble que les libéraux se soient livrés à quelques manipulations statistiques. Environnement Canada a récemment fait des modélisations pour tenter de prédire l’effet des mesures adoptées (taxe sur le carbone et autres) sur les émissions à venir, et a conclu qu’elles n’étaient pas suffisantes pour respecter l’Accord de Paris : les mesures actuellement en vigueur ou prévues manqueraient la cible par 79 Mt [bit.ly/2ntnVh7, p. 5/29]. Et c’est à ce 79 Mt que les libéraux ont comparé le 30 Mt qui sera capté par les arbres plantés, ce qui fait 38 %.

Si l’on appelle les choses par leur nom, cependant cela représente donc 38 % du chemin qu’il resterait à parcourir, pas 38 % «des objectifs».

Et soulignons que l’on parle ici de projections : on n’est pas sûr que les mesures en place réduiront les émissions de GES autant que ne le prévoient les modèles.

Dernier élément pertinent : quand on compense des émissions en plantant des arbres, la règle générale est qu’il faut avoir une forme de «garantie» que les arbres seront conservés pendant au moins 30 ans, sinon 50 — le propriétaire du terrain où ils sont plantés peut s’y engager dans un contrat, par exemple. Or le PLC a éludé une question explicite du Soleil sur ces garanties, disant simplement que «nous travaillerons avec des experts» et «[réfléchirons] soigneusement au type d’arbres que nous plantons et à l’endroit où nous les plantons afin d’arriver à notre objectif».

LE VERDICT

Très exagéré. Pour arriver au chiffre de 40 %, les libéraux ont dû jouer avec les chiffres : ils ont comparé l’effet de leur promesse non pas aux objectifs de l’Accord de Paris, mais au chemin qu’il resterait à faire (en présumant que certaines prévisions se réalisent), ce qui gonfle artificiellement le pourcentage. En réalité, les 2 milliards d’arbres plantés représentent moins de 15 % des objectifs fédéraux.

Vérification faite

Vérification faite: le poids de la dette fédérale diminue-t-il?

L’AFFIRMATION: «Justin Trudeau dit que le déficit n’est pas important puisque la dette diminue par rapport au PIB [une mesure de la taille de l’économie, ndlr]. Or, il me semble que ce sont plutôt les revenus du gouvernement qu’il faut considérer puisque ce que sont eux qui servent à rembourser la dette et payer les intérêts. Et en 2018, le gouvernement canadien avait un revenu d’environ 300 milliards et une dette de 775 milliards $», demande Léandre Bouchard.

LES FAITS

Ce sont effectivement les revenus gouvernementaux qui payent la dette et ses intérêts. Mais ces revenus proviennent eux-mêmes de l’activité économique, via les impôts et taxes, royautés, etc. Si l’économie se porte mal, alors il y a moins d’emplois (donc moins de revenus à imposer), les gens et les entreprises dépensent moins (donc moins d’achats à taxer), et cela se répercute sur le trésor public. On l’a bien vu lors de la grande crise économique de la fin des années 2000 : les revenus du fédéral sont passés de 253 milliards $ en 2008 à 237 milliards $ l’année suivante, un recul d’une quinzaine de milliards.

Alors ultimement, oui, c’est la taille de l’économie qui fait foi de la capacité de payer d’un gouvernement, et c’est presque toujours elle qui sert de point de comparaison aux comptables et aux économistes quand ils veulent savoir si la dette publique est «trop lourde» ou non. Ils expriment alors la dette en pourcentage du PIB.

Ce ratio a déjà été énorme : au milieu des années 1990, après des décennies de grandes dépenses et de déficits chroniques, la dette nette représentait pas moins de 67 % du PIB. Ottawa (sous Jean Chrétien) a alors sabré dans ses dépenses et a éliminé son déficit, puis s’est mis à rembourser la dette publique petit à petit. Le gouvernement conservateur de Stephen Harper a maintenu cette discipline par la suite, jusqu’à ce que la crise de 2008-2009 le contraigne à dépenser davantage afin d’amoindrir les effets de la récession. Le gouvernement Harper avait cependant rééquilibré ses finances par la suite et le ratio dette-PIB a recommencé à baisser dès 2013.

Alors, est-ce que la tendance s’est poursuivie même si Ottawa s’est remis à faire des déficits sous le gouvernement Trudeau? La réponse est «plutôt oui». Le premier budget du gouvernement Trudeau, arrivé au pouvoir à la fin de 2015, fut l’exercice financier 2016-2017. La dette représentait alors 32,1 % du PIB. L’année suivant, ce ratio était descendu à 31,3 % et, en date de mars dernier, il n’était plus que de 30,9 %, pour un total de 685 milliards $ de dette fédérale.

Aux fins de comparaison, il s’agit du plus bas ratio parmi les pays du G7.

Il y a cependant trois choses à ajouter, ici, si l’on veut dresser un portrait complet. D’abord, le premier budget Trudeau a vu le ratio dette-PIB augmenter légèrement par rapport au dernier budget Harper, de 31,9 à 32,1 %. On ne peut donc pas dire qu’il a diminué pendant vraiment toutes les années Trudeau (même si ce fut le cas pour presque toutes).

Ensuite, lors de la campagne électorale de 2015, le Parti libéral avait promis de juguler le déficit d’ici 2019-2020, mais son déficit prévu pour l’année en cours est de près de 20 milliards — en hausse par rapport aux années précédentes — et il n’y a tout simplement plus de date prévue pour l’atteinte du déficit zéro : le dernier budget ne prévoyait qu’une réduction graduelle du déficit pendant le prochain mandat, jusqu’à 10 milliards $ en 2023-2024. Dans leur plateforme dévoilé dimanche, les libéraux annoncent maintenant un «trou» de 27 milliards $ pour la première année de mandat, déficit qu'ils ramèneront à 21 milliards $ en 2023-24. La dette représenterait alors 30,2 % du PIB et serait donc toujours en diminution — mais ce sont là des prédictions, donc pas nécessairement ce qui va réellement se passer.

Enfin, et c’est peut-être le point le plus important, ces déficits surviennent dans un contexte de croissance économique. En général, on réserve l’encre rouge aux périodes de récession, pour stimuler l'économie, et l'on doit en principe ne pas faire de déficits en période de croissance, afin d'éviter que l'économie ne surchauffe. C’est une discipline qu’avaient scrupuleusement observée les gouvernements Chrétien-Martin, puis Harper pendant près de 20 ans. Alors même si la situation a globalement continué de s’améliorer sous Justin Trudeau, son approche des déficits n’en demeure pas moins une cassure par rapport à ses prédécesseurs.

LE VERDICT

Plutôt vrai. Depuis l’arrivée des libéraux au pouvoir, le rapport de la dette sur le PIB a presque toujours baissé, ce qui indique bel et bien qu’elle devient de plus en plus facile à assumer, comparé à la capacité du fédéral de payer. L’approche du gouvernement Trudeau à l’égard des déficits constitue tout de même un changement de philosophie par rapport à la discipline d’Ottawa depuis la fin des années 1990.

Vérification faite

Vérification faite: de mal en pis pour la classe moyenne?

L'affirmation: «J’aimerais dire que la vie est plus facile pour la classe moyenne canadienne, mais je ne le peux pas. Les gens travaillent plus fort que jamais, mais peinent à joindre les deux bouts», a déclaré le chef conservateur Andrew Scheer, plus tôt cette semaine, alors qu’il annonçait des baisses d’impôts pour venir en aide à la classe moyenne.

Les faits

Qu’il faille baisser les impôts ou non ne concerne pas de la vérification factuelle — cela relève en bonne partie des valeurs individuelles. Mais la question de savoir si la situation des classes moyennes se dégrade, si les gens triment de plus en plus pour, en bout de ligne, voir leurs finances stagner ou se détériorer, elle, se vérifie.

Le déclin de la classe moyenne est un phénomène assez bien documenté aux États-Unis, où les salaires n’ont pas suivi le coût de la vie. Mais c’est beaucoup moins clair en ce qui concerne le Canada et le Québec. En fait, selon des chiffres de Statistique Canada, même en tenant compte de l’inflation, le revenu médian est passé de 57 000 $ en 2000 à 67 000 $ en 2017 (en dollars constants de 2017). De la même manière, le taux de pauvreté qui oscillait entre 12 et 15 % dans les années 90, est passé à 10-12 % dans les années 2000, puis autour de 10 %.

Dans une étude parue en 2014, le Centre de recherche en fiscalité et finances publiques de l’Université de Sherbrooke n’a pas trouvé de raison de croire que la classe moyenne s’érodait au Québec ou au Canada. Cependant, les auteurs ont constaté que les transferts gouvernementaux et la fiscalité jouaient un rôle plus important qu’avant pour «protéger» la classe moyenne. Ainsi, si l’on ne regarde que les «revenus de marché avant impôts» (salaires et autres sources de revenus «privés», grosso modo), la proportion des ménages québécois qui faisaient partie de la classe moyenne est passée de 37 à 29 % entre 1976 et 2010. Mais si l’on tient compte des transferts (allocations familiales et autres) et de l’impôt, alors cette proportion s’est maintenue autour de 46 % depuis une quarantaine d’années, ont conclu les chercheurs.

On pourrait sans doute interpréter ce dernier point comme montrant que la classe moyenne québécoise ou canadienne est quand même «sous pression», jusqu’à un certain point. Ce ne serait pas farfelu, mais ce n’est pas un signal très fort non plus.

Or il y a tout de même quelques indicateurs qui suggèrent une «pression» plus forte qu’avant sur M. et Mme Tout-le-Monde. Les Canadiens ont beau avoir de meilleurs revenus (même en tenant compte de l’inflation), ils sont aussi plus endettés qu’avant — en bonne partie parce que le prix des logements a énormément augmenté depuis 20 ans.

En 1990, la dette des ménages canadiens représentait en moyenne 87 % de leurs revenus annuels. En 2005, c’était presque 130 %. Et en 2018, on en était à 175 %. Comme l’hypothèque représente une grande partie de ces dettes, la valeur de ce que les gens possèdent a elle aussi augmenté, si bien que le ratio actif-passif s’est maintenu autour de 17 % depuis 1990. Mais le fait que les dettes totales aient augmenté beaucoup plus vite que les revenus demeure significatif.

Le nombre de gens «insolvables» (qui font faillite ou qui proposent un règlement à leurs créanciers en vertu de la protection de la loi sur les faillites) raconte un peu la même histoire. Au plus fort de la crise économique de la fin des années 2000, on comptait près de 6 cas d’insolvabilité par 1000 consommateurs (en 2009). Ce taux est redescendu autour de 4,3 pour 1000 et s’y est maintenu pendant les années 2010, mais cela reste nettement plus que les 2 à 3 pour 1000 des années 1990.

On ne peut donc pas dire que l’affirmation de M. Scheer ne tient sur rien. Il y a bel et bien des indicateurs (pas tous, mais quand même) qui suggèrent une détérioration des finances des ménages canadiens.

Il y a cependant un point sur lequel les faits donnent clairement tort au chef conservateur : les gens ne travaillent pas plus qu’avant. Si l’on regarde le groupe des 25 à 54 ans (afin d’éviter que des phénomènes comme la retraite ou l’entrée plus ou moins tardive sur le marché du travail ne viennent fausser les moyennes), la semaine de travail moyenne de ceux qui ont un emploi à temps plein était de 41,1 heures en 2000, contre 40,2 heures en 2018.

Verdict

Pas tout à fait vrai. Les statistiques d’endettement suggèrent bien que les ménages canadiens ont plus de mal qu’avant à joindre les deux bouts. Mais d’autres indicateurs, et non les moindres (salaires et taux de bas revenu), semblent au contraire montrer que le sort de M. et Mme Tout-le-Monde s’est amélioré depuis une vingtaine d’années. Difficile d’en conclure que cela va de mal en pis quand on considère tout cela (même si tout n’est pas rose). Une chose est claire, cependant : on ne travaille pas plus qu’avant.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite

Vérification faite: 19 G$ pour l’industrie pétrolière?

L’AFFIRMATION: «Je demande aux conservateurs et aux libéraux de tenir leur promesse et de mettre fin une fois pour toutes aux subventions aux énergies fossiles», a indiqué cette semaine le chef bloquiste Yves-François Blanchet, qui dénonce les «19 milliards $» en argent neuf qu’Ottawa aurait consentis à l’industrie pétrolière depuis l’arrivée des libéraux de Justin Trudeau au pouvoir, en 2015.

LES FAITS

Pour le contexte, rappelons qu’en 2009, le premier ministre conservateur Stephen Harper s’était engagé avec les autres membres du G20 à «éliminer progressivement et [à] rationaliser les subventions inefficaces aux combustibles fossiles». Pendant la campagne de 2015, le chef libéral Justin Trudeau avait repris cet engagement en y ajoutant l’échéance de 2025. Il semble cependant que le fédéral n’a pas fait beaucoup de progrès en ce sens jusqu’à présent, ont constaté le Vérificateur général en 2017 et la commissaire au développement durable le printemps dernier.

Maintenant, est-ce que le fédéral a vraiment allongé 19 milliards $ en aides diverses au secteur pétrolier (qui ne va pas très bien depuis quelques années) depuis l’arrivée des libéraux au pouvoir? Plusieurs rapports sur cette question chiffrent plutôt les «subventions» canadiennes (incluant les congés fiscaux et toute autre forme d’aide) à environ 3 milliards $ par année en comptant tous les paliers de gouvernement, dont seulement 1,2 milliard du fédéral. Le Bloc affirme que ces 19 milliards $ se sont ajoutés à cette somme.

Pour arriver à ce chiffre, le Bloc québécois a compté 1,7 milliard $ en «nouvelles lignes de crédit» pour les producteurs de pétrole, ce qui fut effectivement annoncé en décembre dernier. Les bloquistes comptent également 2,7 milliards $ d’incitatifs fiscaux consentis en novembre 2018 à toutes les entreprises canadiennes pour encourager les investissements. Ces allègements s’élèvent à 14,4 milliards $ au total, et la part projetée des pétrolières s’élèverait à 2,7 milliards $. Notons que cette somme est plus problématique puisque le communiqué du Bloc parle de sommes investies «dans le dernier mandat» alors qu’il s’agit de projections jusqu’en 2023. En outre, comme toutes les projections, il n’est pas sûr que celles-ci vont se réaliser.

Mais de toute manière, le gros du 19 milliards $ vient de l’achat du pipeline KinderMorgan par Ottawa, annoncé en 2017 pour 4,7 milliards $, et du projet d’expansion que le fédéral a repris après le désistement de l’entreprise pipelinière KinderMorgan. L’agrandissement coûtera entre 9 et 10 milliards $ et vise à «libérer» le pétrole albertain du goulot d’étranglement que représentent les pipelines actuels, qui ne suffisent pas à la tâche (ce qui déprime les prix obtenus par les producteurs des Prairies). Ces sommes-là non plus n’ont pas à proprement parler été «dépensées dans le dernier mandat», mais comme l’agrandissement de Trans Mountain devrait débuter sous peu, elles sont quand même «déjà engagées».

La question est donc : est-ce qu’on peut raisonnablement considérer ce rachat et la prise en charge de l’agrandissement comme une «subvention» ? Il est évident que cela ne correspond pas à la définition classique, mais cela n’en reste pas moins une «forme d’aide» de l’État qui s’y apparente, dit l’économiste de l’Université d’Ottawa et spécialiste du secteur de l’énergie Jean-Thomas Bernard.

«Imaginons que le fédéral ne soit pas intervenu, explique-t-il. Il est possible que KinderMorgan aurait alors décidé de tout simplement retirer son projet d’expansion. […] Alors le fédéral est arrivé et a dit : “Moi, je vais le mener à bien, ce projet-là.” Et ça, à un moment où le privé trouvait que c’était devenu trop risqué. Alors ça veut dire que c’est le fédéral qui a absorbé ce risque-là, et on peut donc considérer ça comme une forme de subvention.»

Son collègue Pierre-Olivier Pineau, de la Chaire de gestion du secteur de l’énergie (HEC), est grosso modo du même avis. Il ajoute cependant qu’«utiliser le montant total de l’achat comme une subvention est sans doute un abus parce que l’argent n’est pas entièrement donné à l’industrie [ndlr : Ottawa pourrait par exemple en tirer des revenus et/ou revendre le pipeline, mais c’est difficile d’établir la part exacte».

De son côté, l’économiste de l’Université Laval Stephen Gordon n’est «pas si sûr» qu’il s’agit bien d’une forme de subvention ou d’aide étatique. «Le fédéral avait le droit et l’obligation d’assumer ses responsabilités en ce qui concerne le commerce interprovincial. Acheter Trans Mountain était la façon le plus rapide et moins chère.

«Le fédéral était capable d’acheter Trans Mountain à un bon prix, ajoute-t-il, parce que aucun investisseur n’était prêt à faire face aux harcèlements de la Colombie-Britannique [ndlr : dont le gouvernement est farouchement opposé au projet]. Une fois l’oléoduc construit, la valeur de Trans Mountain — sans le risque politique — sera plus élevée. Bien sûr, il y a un risque, mais il est loin d’être certain que le fédéral sera perdant.»

LE VERDICT

Vrai, mais seulement en partie. Le gros du 19 milliards $ est rattaché à Trans Mountain, et a donc été dépensé ou engagé dans le dernier mandat. Il ne semble pas déraisonnable de compter ce projet dans le total, bien que les experts n’en soient pas tous convaincus. Mais comme il est possible que Ottawa tire des revenus du futur pipeline, et il est très difficile pour l’instant de déterminer quelle part des investissements fédéraux pourra être assimilée à une «subvention» ou une forme d’«aide étatique».

Vérification faite

Vérification faite: «consensus» sur l'ère glaciaire?

L’AFFIRMATION: «Nous vivons actuellement un réchauffement planétaire. Mais dans les années 1970, apparemment, les scientifiques disaient qu’on se dirigeait vers une petite ère glaciaire. Peut-on savoir si c’était effectivement le cas et pourquoi les scientifiques le croyaient?» demande Denis Pelletier, de Québec.

LES FAITS

C’est un argument qui revient souvent chez les climatosceptiques : le consensus scientifique actuel autour du réchauffement ne veut pas dire grand-chose, avancent-ils, puisqu’il y a déjà eu un consensus scientifique sur le contraire dans les années 1970, au point que certains prédisaient une nouvelle glaciation. Alors il vaut la peine de s’y attarder.

Dans les années 1960 et 1970, la climatologie était encore une discipline très jeune qui devait travailler avec des ressources beaucoup plus limitées que de nos jours — peu de satellites, séries de données moins longues et moins nombreuses, etc. À cette époque, les chercheurs se rendaient compte qu’il y avait eu un réchauffement planétaire depuis le milieu du XIXe siècle, mais que la tendance s’était inversée et que le climat semblait refroidir depuis quelques décennies. En effet, entre le début des années 1940 et le milieu des années 1960, la température moyenne mondiale a perdu 0,4 °C et elle ne reprendra ses niveaux antérieurs qu’à partir des années 1980.

L’idée que ce refroidissement allait se poursuivre à long terme n’a toutefois jamais rallié assez de savants pour parler d’un «consensus scientifique», loin s’en faut. À l’époque, on connaissait le pouvoir réchauffant du CO2 et l’on savait que ses concentrations augmentaient dans l’atmosphère, mais on savait aussi que la pollution industrielle contenait également d’énormes quantités de particules fines et d’aérosols qui bloquent les rayons du Soleil et les renvoient vers l’espace, ce qui a un effet refroidissant. La question était alors de savoir si l’un de ces deux effets allait prévaloir à long terme, et lequel.

Dans un petit historique de la climatologie de l’époque paru en 2008 dans le Bulletin of the American Meteorological Society (BAMS), trois climatologues ont passé en revue toutes les études sur le sujet parues entre 1965 et 1979. Ils en ont trouvé sept qui penchaient en faveur du refroidissement, 20 qui étaient neutres et 44 qui estimaient que la tendance au réchauffement reprendrait dans l’avenir. Ils ont également compté le nombre de citations amassées entre 1965 et 1983 par chacun de ces articles afin d’en mesurer l’influence dans la communauté scientifique, mais cela n’a pas vraiment changé le portrait : 325 citations pour les articles en faveur du refroidissement, 424 pour les neutres et plus de 2000 pour le réchauffement.

Notons que le site climatosceptique Watts Up With That a contesté ces chiffres et a repris l’exercice à sa manière. Ce site n’est certainement pas une source aussi crédible que le BAMS et l’on peut/doit douter de ses conclusions, mais il est assez parlant que son auteur n’ait pu trouver «mieux» que 86 articles penchant pour le refroidissement, 58 neutres et 45 pour le réchauffement pour la période 1965-1979. C’est signe que même en mettant les choses au pire du pire (et peut-être même en y mettant un grain de mauvaise foi, chose que Watts Up With That, un site très orienté, a souvent été accusé de faire dans le passé), on ne peut toujours pas dire qu’il y avait un «consensus» sur le refroidissement planétaire. L’idée a déjà été débattue en science — c’est le plus loin que l’on puisse possiblement aller. Et encore, je le répète, pas si l’on se fie aux meilleures sources, comme le BAMS et des sites crédibles comme RealClimate.org et le site de la NASA.

Ce qui semble s’être passé entre 1940 et 1970, lit-on dans un résumé de la littérature scientifique paru en 2012 dans ce même BAMS, c’est que la fin de la Seconde Guerre mondiale a marqué le début d’une période de croissance économique mondiale rapide, qui s’est accompagnée d’une forte augmentation de la pollution (et donc des aérosols refroidissants). Plusieurs fortes éruptions volcaniques, qui émettent elles aussi de grandes quantités de ces aérosols, se sont aussi produites.

À partir des années 1980, cependant, les pays occidentaux ont adopté des lois pour réduire leurs émissions de ces particules et aérosols (notamment pour réduire les pluies acides), si bien que leur effet refroidissant a en bonne partie disparu, laissant plus de place à l’effet du CO2. La tendance à long terme au réchauffement a alors repris. Depuis les années 2000, cependant, on constate qu’en Inde et en Chine le rayonnement solaire est de plus en plus bloqué, à cause de la forte croissance économique de l’Asie, de sa dépendance au charbon et de la pollution qui en découle.

Dernière chose : tant dans l’article de 2008 du BAMS que dans d’autres sources, on constate que les médias ont grandement contribué à faire naître et à entretenir le «mythe» autour du consensus scientifique sur le refroidissement. Dans les années 1970, le Science Digest’s, par exemple titrait : «Préparez-vous à un nouvel âge glaciaire». Newsweek parlait d’un «monde en refroidissement» et évoquait un éventuel «déclin dramatique de la production alimentaire», et nombre d’autres articles parlaient (abusivement) de «signes précurseurs d’une glaciation» qui s’accumulaient.

Bref, tout indique que les médias de l’époque ont vu là une trame narrative vendeuse et qu’ils lui ont accordé beaucoup plus d’espace qu’elle n’en méritait.

LE VERDICT

Faux. On ne peut pas dire que «les» scientifiques prédisaient un refroidissement global dans les années 1970. Certains l’ont fait, oui, l’idée a été débattue. Mais elle n’a jamais eu l’importance que les médias du temps et que les climatosceptiques d’aujourd’hui lui ont accordée. Et elle a d’ailleurs été abandonnée, depuis, par une écrasante majorité de climatologues.

Vérification faite

Vérification faite: nos aliments moins nourrissants?

L’AFFIRMATION: Kim Leclerc, d’Ottawa, se demande si un article publié cette semaine sur le site de MétéoMédia est aussi «douteux» qu’il lui semble. L’article en question est titré : «Les nutriments des aliments sont en déclin de 10 à... 100 %!», et il allègue que des «recherches, qui remontent jusqu’en 1940, suggèrent [...] qu’une personne doit manger le double de viande, trois fois plus de fruits et de quatre à cinq fois plus de légumes pour obtenir les mêmes valeurs nutritives».

LES FAITS

Remontons d’abord aux sources, ça en dira déjà assez long sur le sujet. Le texte de Météo Média est en fait un résumé en français d’un billet de blogue très alarmiste («Le brocoli meurt, le maïs est toxique») publié la semaine dernière par la revue grand public Scientific American. Ce billet avance essentiellement que la valeur nutritive de nos aliments est en chute libre, que c’est la faute des pesticides qui tueraient le microbiote des sols et qu’il faut convertir toute notre agriculture au bio pour inverser la tendance.

Or les sources citées par SciAm, de son petit nom, ne sont pas particulièrement convaincantes. Les deux principales sont une «étude» (non publiée dans la littérature scientifique) de l’organisme Planetary Health/Amberwaves et un autre billet de blogue, paru celui-là sur le site Eco Farming Daily. Ce dernier n’est clairement pas une source scientifique, tandis que l’homme derrière Planetary Health et auteur de l’«étude», Alex Jack, est un ex-journaliste et militant anti-OGM de longue date qui multiplie depuis des années les affirmations douteuses, comme des «conseils» pour se protéger contre le virus Ebola simplement par l’alimentation — bio, il va sans dire, et il s’adonne que son site ebolaanddiet.com réfère justement à une «organisation sœur» qui vend en plein ce genre d’aliments, pensez si ça adonne bien…

Quand on consulte la (vraie) littérature scientifique, le portrait qui se dégage est beaucoup, beaucoup plus nuancé. Il existe bel et bien des études sérieuses qui ont conclu à une baisse de la qualité de nos aliments. Par exemple, en 1999, le British Food Journal a publié un article (souvent cité par ceux qui prédisent une catastrophe alimentaire) concluant qu’entre les années 1930 et 1980, les légumes avaient perdu entre 6 % (pour le phosphore) et 80 % (pour le cuivre) de leurs nutriments, et les fruits entre 0 % (calcium) et 36 % (cuivre). Le hic, c’est que l’étude ne tirait aucune conclusion ferme, mais se terminait plutôt une série de questions pour des recherches futures, dont la première (et ça ne s’invente pas) était : «Est-ce que ces données sont fiables?»

D’autres exercices du même genre ont été entrepris par la suite. Certains ont conclu qu’il n’y avait pas de tendance à la baisse, mais d’autres que oui, bien que jamais dans des proportions catastrophiques (j’y reviens). En 2009, la publication savante HortScience a publié une revue systématique de ces travaux, qui a constaté une baisse significative de 5 à 40 % pour certains nutriments, mais seulement la moitié de ceux testés.

Bref, on est très loin des 50 à 80 % (et plus) généralisés dont parlent SciAm et MétéoMédia à sa suite.

En outre, certains chercheurs ne sont toujours pas d’accord pour dire qu’il y a là un «problème», faisant valoir que les données historiques ne sont pas fiables, que l’on compare des cultivars différents et que la variabilité naturelle des nutriments est bien plus grande que les baisses alléguées, atteignant jusqu’à 1500 %, voire plus. Mais il reste qu’il y a tout de même une «base» factuelle et scientifique pour dire qu’il y a bel et bien eu une certaine baisse de la valeur nutritive de nos aliments au cours des dernières décennies. Cependant, il y a deux choses à faire ressortir, ici, pour avoir un portrait complet.

La première, c’est qu’aucune de ces publications savantes ne montre du doigt un appauvrissement généralisé des sols ou l’usage des pesticides (ceux-ci ont leurs défauts, mais c’est une autre question). La cause la plus souvent mentionnée, et de loin, est plutôt un «effet de dilution» : en agriculture, plus le rendement à l’hectare est grand, et plus la récolte a tendance à être pauvre en nutriments, en moyenne. Grosso modo, cela arrive parce qu’il y a des limites aux quantités de minéraux et autres nutriments que les plantes sont capables de mettre dans leurs fruits ou leurs grains, si bien que quand on leur fournit tout (eau, engrais, etc.) ce qui leur faut pour croître rapidement, elles produisent plus, mais les nutriments s’en trouvent un peu «dilués». S’ajoute à cela une «dilution génétique» par laquelle on choisit depuis des décennies des cultivars pour leur productivité, leur capacité à soutenir de longs entreposages ou le transport dans des boîtes, etc., ce qui peut aussi se faire au détriment des qualités nutritives.

La seconde chose à souligner, c’est qu’en bout de ligne, rien de tout cela ne signifie que nous sommes moins bien nourris qu’avant. Le Département américain de l’agriculture a publié en 2007 une étude sur les qualités nutritives des aliments disponibles et leur évolution entre 1909 et 2004. Le document conclut essentiellement qu’à peu près tous les nutriments étudiés sont plus disponibles qu’avant pour les consommateurs, entre autres parce que certains aliments sont maintenant enrichis et aussi parce que nous avons des fruits et légumes frais à l’année. Ainsi, les cultivars plus productifs et/ou mieux entreposables sont peut-être moins nourrissants que d’autres cultivars que l’on consommait, à l’époque, juste après la récolte aux champs, mais ils permettent une meilleure alimentation dans l’ensemble.

LE VERDICT

Très exagéré. Les sources citées par MétéoMédia ne sont pas fiables. Quand on en consulte de meilleures, on constate que la baisse des qualités nutritives de nos aliments depuis 50 ans est loin d’être aussi grande que ce qui est allégué — et pourrait même être inexistante, si l’on tient compte de facteurs comme les changements de cultivars. Dans tous les cas, cela ne signifie nullement que l’offre alimentaire dans son ensemble est plus pauvre qu’avant.

Vérification faite

Vérification faite: 200 arbres couvrent-ils le CO2 du GP de Trois-Rivières?

L’AFFIRMATION: «Comment est-ce que les dirigeants du Grand Prix de Trois-Rivières [GP3R] peuvent prétendre transformer quatre jours de bruit et de dioxyde de carbone en milieu urbain en un “événement vert”, simplement en plantant 200 arbres? Est-ce que ces 200 arbres suffisent vraiment à compenser les émissions du Grand Prix, ou est que c’est, comme on dit en français, du greenwashing?» demande un certain «Louis» de Trois-Rivières.

LES FAITS

Le Grand Prix de Trois-Rivières, qui a lieu en fin de semaine, d’ailleurs, a effectivement décidé de réduire son empreinte écologique en plantant chaque année des arbres pour compenser ses émissions de gaz à effet de serre. Ce printemps, 200 ont été plantés afin de compenser (sur 50 ans) le CO2 rejeté l’an dernier.

Il faut noter (et le GP3R ne s’en cache pas) que l’exercice ne vise pour l’instant qu’à couvrir les émissions des voitures et motos en piste, lors des tours de pratique, des qualifications et des courses elles-mêmes. Cela n’inclut pas le CO2 rejeté pour l’organisation de l’événement, la préparation du site, le transport des pilotes et des véhicules, etc. Le directeur du Grand Prix, Dominic Fugère, indique qu’un nouveau bilan plus complet est justement en préparation. Il sera éventuellement suivi par un troisième bilan qui tiendra aussi compte du «CO2 émis par nos visiteurs pour venir et partir de chez nous ainsi que ce qu’ils émettent comme GES [pendant qu’ils sont sur place]», a précisé M. Fugère lors d’un échange de courriels.

Alors la question à laquelle il faut répondre ici est : ces 200 arbres compensent-ils au moins le CO2 rejeté par les bolides pendant les compétitions, comme le prétend le GP3R? C’est la firme de consultant Arbre-Évolution qui a fait les calculs d’émissions et d’arbres à planter, et M. Fugère m’a envoyé son fichier Excel. Les chiffres concordent bien avec ce que j’ai pu trouver dans d’autres sources externes.

En comparant avec les résultats officiels du GP3R, il apparaît qu’Arbre-Évolution n’a pas sous-estimé le kilométrage parcouru, mais a même compté un peu plus de tours que ce qui a été officiellement comptabilisé. Ainsi, les voitures de la catégorie Porsche Ultra ont complété un peu plus de 1200 tours (pratiques, qualifs et courses) selon les résultats officiels, mais Arbre-Évolution a basé ses calculs sur plus de 1400 tours. Même chose pour les autres catégories que j’ai vérifiées, soit la F1600 (environ 1300 tours dans les résultats officiels contre près de 1600 dans les calculs du consultant) et pour le Championnat canadien de véhicules de touring (1650 vs 2250).

Rien ne suggère non plus que la consommation des véhicules ait été sous-estimée, dans ce que j’ai pu comparer. Ainsi, le président du circuit F1600 Canada, Marcel Lafontaine, m’a dit en entrevue que «la course fait environ 50 km, et la voiture consomme environ 20 litres d’essence», ce qui fait autour de 40 l/100 km; c’est assez proche des 35 l/100 km comptés pour les F1600 par Arbre-Évolution. De la même manière, le site de NASCAR parle d’une consommation de 57 l/100 km (4,1 milles par galon, nas.cr/2ymw5d5) pour ses bolides participant à ses courses les plus prestigieuse; ceux du GP3R (des Nascar de la série Pinty) ne sont pas aussi puissants, mais l’événement a compté 70 l/100 km pour eux. Dernier exemple : Arbre-Évolution a présumé une consommation moyenne de 18 l/100 km pour la catégorie Nissan Micra; c’est le double de la consommation «en ville» de ce modèle, d’après le fabricant, ce qui semble raisonnable compte tenu de la conduite exigeante d’une course.

Le chiffrier du GP3R compte 2,3 kg de CO2 émis par litre d’essence brûlé, ce qui est exact.

Enfin, Arbre Évolution a compté 215 kg de CO2 capturé sur une période de 50 ans pour chaque arbre planté, ce qui est très faible (et pas du tout à l’avantage du GP3R) comparé à ce qu’avancent d’autres sources crédibles [bit.ly/2SSe9jM et bit.ly/2K5igX5], qui parlent plus tôt de 1 tonne par arbre au bout d’une quarantaine d’années. Cependant, note M. Fugère, les 200 «arbres» plantés par le Grand Prix incluent aussi des arbustes fruitiers (une vingtaine) qui ne stockent pas autant de carbone que les grands arbres. Peut-être AUSSI que les essences d’arbres plantés (que je n’ai pas pu connaître) sont plus petites ou à croissance lente, et captureraient donc moins de carbone. Mais les estimés du GP3R ne semblent vraiment pas avoir péché par excès d’optimisme de ce point de vue.

LE VERDICT

Vrai. Le Grand Prix ne prétend pas couvrir autre chose que le CO2 des voitures en piste (en tout cas pas encore). Tout indique que les 200 arbres plantés cette année suffisent à compenser les GES des courses, qualifications et essais de l’an dernier.

Vérification faite

Vérification faite: le gibier, plus nourrissant que la viande d’élevage?

L’affirmation «Étant un chasseur sérieux (et chanceux), je ne mange pas de viande d’élevage : les protéines animales que je consomme proviennent de l’orignal et du cerf. Cependant, je n’ai jamais trouvé de comparaison entre la viande rouge d’élevage et la viande sauvage. Est-il vrai que cette dernière est plus saine et plus nourrissante?», demande Gilles Harvey, de Québec.

Les faits

Dans l’ensemble, oui c’est vrai, répond Malek Batal, chercheur en nutrition de l’Université de Montréal qui a mené des travaux sur (notamment) l’alimentation des autochtones, qui est évidemment riche en gibier. «C’est une viande qui est plus maigre, ce qui la rend plus dense en nutriments : les minéraux, les protéines et les vitamines sont plus concentrés dans la chair», dit-il. En outre, la diète des animaux sauvages est généralement meilleure, plus naturelle et plus diversifiée, que celle des animaux d’élevage, ce qui se reflète forcément dans la qualité de leur viande.

Ce n’est pas une règle absolue, avertit-il, puisque la viande sauvage peut venir avec certains contaminants — comme le cadmium, qui a tendance à se concentrer dans les reins de l’original et du caribou. «C’est surtout le cas dans les régions nordiques parce que les polluants ont tendance à migrer vers le nord avec les courants marins et atmosphériques», poursuit le chercheur. Cependant, nuance-t-il, ce n’est pas un problème énorme dans l’ensemble et, quand on tient compte de tout, le gibier reste une viande «intéressante à consommer» du point de vue de la santé.

Il existe plusieurs études européennes  et américaines qui arrivent à cette conclusion. Non seulement les nutriments sont-ils plus concentrés dans le gibier, mais les graisses qui s’y trouvent (parce qu’il y en a un peu, quand même) sont meilleures pour la santé, ayant de meilleurs ratios des gras polyinsaturés oméga-3 et oméga-6. Les premiers, lit-on dans cette étude, se font souvent trop rares dans la viande d’élevage.

En plus de ces articles, le site de Santé Canada montre également les valeurs nutritives pour plusieurs viandes différentes, sauvages et d’élevage. On y voit par exemple que le bœuf domestique rôti (catégorie : «coupes diverses») contient 8 grammes de graisses par portion de 75 g, alors que le chevreuil et l’original rôtis n’en ont que 1 à 2 g. Du côté des minéraux, ces trois viandes se valent pour les teneurs en sodium (autour de 40 mg/75 g) et en magnésium (environ 20 mg), mais les deux gibiers contiennent plus de fer (autour de 3,5 mg contre 2,3 pour le bœuf), de potassium (250 à 375 mg contre 230 pour le bœuf) et de phosphore (environ 180 mg vs 155 pour le bœuf).

Notons toutefois que les valeurs peuvent changer d’une pièce de viande à l’autre. À cet égard, la comparaison la plus directe qu’il y a sur le site de Santé Canada est sans doute entre le «canard domestique» et le «canard sauvage». Et ce parallèle (re) confirme amplement la règle : pour chaque portion de 75 grammes, il y a sept fois moins de gras dans le canard sauvage (3 g vs 21 g), plus de protéines (23 g vs 14 g), plus de fer (7 mg vs 2 mg), plus de magnésium (23 mg vs 12 mg), plus de phosphore (187 mg vs 117 mg) et plus de potassium (197 mg vs 153 mg).

Le verdict

Vrai. D’une coupe de viande à l’autre, les valeurs nutritives (et les contaminants) peuvent changer, mais, dans l’ensemble, le gibier contient plus de nutriments et moins de graisses (à poids égal) que la viande d’élevage.

Vérification faite

Vérification faite: moins d’insectes qu’avant?

L’AFFIRMATION: «Depuis quelques années, je retrouve beaucoup moins d’insectes dans ma piscine qu’il y a 10 ans. Et c’est encore plus marqué cette année : par exemple, je n’ai vu aucun bourdon [ou peut-être un] jusqu’à maintenant. Est-ce circonstanciel? On dit que non dans les médias, que le déclin est réel et dramatique, mais est-ce une fake news?» demande Philippe Boulanger, de Lévis.

LES FAITS

C’est surtout depuis 2017 que les médias parlent (beaucoup) d’un déclin massif et généralisé des insectes, dans la foulée d’une étude allemande qui avait conclu que la biomasse des insectes (soit le poids total de tous les insectes réunis) avait chuté de pas moins de 76 % dans les aires protégées d’Allemagne en moins de 30 ans. D’autres travaux du même genre ont par la suite été publiés. L’automne dernier, par exemple, une étude parue dans les PNAS indiquait que des pièges à insectes installés dans la forêt tropicale de Porto Rico avaient capturé en 2012 entre 4 à 8 fois moins d’insectes (en poids), voire 10 à 60 fois moins selon le type de piège, que les mêmes trappes posées aux mêmes endroits en 1976. Et une revue de littérature publiée ce printemps a également conclu qu’à l’échelle planétaire, la biomasse des insectes diminuait d’environ 2,5 % par année en moyenne.

Bref, il existe bel et bien des données légitimes et très inquiétantes au sujet du sort de la faune à six pattes. Mais il y a quelques petits (et gros) points à faire ressortir, ici.

D’abord, la couverture médiatique de ces études a adopté un ton totalement apocalyptique. Certains ont même évoqué la «disparition des insectes d’ici un siècle», ce que des entomologistes ont décrit comme une grossière exagération.

Ensuite, et par-dessus tout, les données dont on dispose sur les populations d’insectes ont beau être très sombres, elles n’en demeurent pas moins aussi très, très fragmentaires. «Je pense qu’il y a trop peu de données scientifiques fiables, largement réparties géographiquement, et poursuivies à terme assez long pour conclure au déclin généralisé des insectes», estime le chercheur en entomologie de l’Université Laval Conrad Cloutier. Le coordonnateur de la collection d’insectes de l’Université de Montréal, Étienne Normandin, est du même avis, et nombre d’autres entomologistes dans le monde ont lancé le même message au cours des derniers mois : les chiffres qu’on a sont alarmants, mais très insuffisants.

D’abord, il y a trop de régions du globe où l’abondance des insectes n’a pas été étudiée, ou si peu — la revue de litté publiée au printemps, par exemple, n’a recensé qu’une seule étude pour toute l’Australie et une seule pour la Chine. Ensuite, il y a beaucoup trop d’espèces d’insectes pour lesquelles on n’a pas de données : on ne connaît qu’environ 20 % du nombre estimé des espèces d’insectes sur Terre.

«L’argent de la recherche en entomologie est concentré dans des secteurs névralgiques où les insectes peuvent avoir un gros impact, comme la foresterie et l’agriculture. C’est normal, parce que les ravageurs peuvent causer des pertes économiques qui se chiffrent en milliards de dollars», dit M. Normandin, mais cela laisse aussi de grands «trous» dans le portrait d’ensemble des populations d’insectes.

En outre, poursuit-il, si le déclin est absolument indéniable dans le cas de nombreuses espèces, cela ne signifie pas que celles-ci laissent un espace vide derrière elles. «Ce qui arrive, c’est qu’on observe une homogénéisation des espèces d’insectes. Par exemple, j’ai fait une étude sur les espèces d’abeilles présentes en ville, et il y en a une poignée qui sont très bien adaptées. Même quand on regarde les milieux qui sont juste légèrement urbanisés, ces espèces-là réussissent très bien. Mais les espèces qui sont plus spécialisées ou moins adaptables, elles, on les perd», dit-il. Du point de vue de la biomasse, donc, la disparition d’une espèce n’implique pas que la somme des insectes «pèse» moins qu’avant. (Même si ça reste quand même une perte de diversité, évidemment.)

Un mot, pour finir, au sujet des bourdons, puisque M. Boulanger s’en sert comme d’un «indicateur», pour ainsi dire. «C’est au moins la cinquième personne qui me mentionne ça [l’absence des bourdons] cette année, alors il s’est peut-être produit quelque chose», dit M. Normandin. Il est possible, avance-t-il, que le printemps froid que nous avons connu soit en cause.

Mais voilà, M. Cloutier, qui vit lui aussi sur la Rive-Sud de Québec, mais en campagne, n’a pas l’impression d’avoir vu moins de bourdons qu’à l’accoutumée cette année. Si M. Boulanger voit de moins en moins de bourdons (et d’autres insectes) dans sa piscine depuis 10 ans, c’est peut-être plutôt parce que Lévis se développe à vitesse grand V, propose le chercheur. On peut imaginer, dit-il, qu’il y a 10 ans le quartier de M. Boulanger était proche de zones agricoles ou assez «sauvages» propices aux insectes, qui atterrissaient alors nombreux dans les piscines. Mais à mesure que la ville s’est développée, ces secteurs ont été urbanisés, si bien que les zones plus favorables aux insectes sont désormais plus loin du terrain de M. Boulanger.

Plus généralement, la situation des bourdons s’apparente à celle des autres insectes : nous avons des données qui prouvent le déclin de quelques espèces, et même qui suggèrent un déclin généralisé, mais on est encore loin d’en avoir la preuve, dit M. Cloutier.

LE VERDICT

Pas clair. Une bonne partie des données dont on dispose suggèrent qu’il y a effectivement un déclin des insectes, mais elles ne sont pas assez abondantes et solides pour le prouver de manière convaincante. Peut-être que cela viendra un jour, mais on n’est pas rendu là.

Vérification faite

Vérification faite: nos routes sont-elles en si mauvais état?

L’affirmation «On entend régulièrement dire que les routes du Québec sont en bien pire état qu’ailleurs, qu’elles sont mal construites, mal entretenues, etc. Mais est-ce bien vrai? Personnellement, pour avoir voyagé pas mal, je trouve qu’elles ne sont pas pires qu’ailleurs, du moins dans les endroits où le climat est comparable. C’est plus entre les routes du Québec que je vois des différences. Dès qu’on s’enfonce un peu dans ce que l’on peut appeler l’arrière-pays, les routes sont parfois vraiment mauvaises», demande Jean-Claude Lachance, de Sainte-Marthe-sur-le-Lac.

Les faits

Les comparaisons entre les routes de pays différents ne sont pas faciles, car chaque gouvernement a tendance à mesurer les choses à «sa façon». Mais il existe tout de même un indicateur qui est à la fois objectif et commun à la plupart des juridictions : l’indice de rugosité international (IRI). À chaque fois qu’une voiture roule sur une bosse ou un nid-de-poule, elle subit un déplacement à la verticale. L’IRI consiste à mesurer ces déplacements verticaux — 5 cm pour une craque ici, 3 cm pour une bosse là, etc. — et à les cumuler pour les exprimer en mètres par kilomètre (m/km) : pour chaque kilomètre parcouru sur une route, l’IRI donne le nombre de mètres à la verticale que les défauts du pavage imposent au véhicule.

Comme n’importe quel autre indicateur, celui-là ne dit pas tout, souligne le spécialiste des pavages Guy Doré, du département de génie civil de l’Université Laval. Il ne tient pas compte de l’orniérage, par exemple, ni des fissures trop petites pour être ressenties mais qui sont appelées à s’élargir rapidement en période de gel-dégel. «Mais on ne peut pas comparer l’état de fissuration entre les États parce qu’il n’existe pas de système unifié et reconnu pour ça. […] Et si on considérait ces autres facteurs-là [en plus de l’IRI], les résultats risqueraient probablement d’empirer pour le Québec parce que quand le ministère des Transports (MTQ) a commencé à tenir compte de la fissuration dans leurs bilans il y a quelques années, le pourcentage de routes en bon état a reculé», dit-il. L’IRI peut donc être considéré jusqu’à un certain point comme une évaluation un brin optimiste des routes du Québec.

Le MTQ considère que sur une autoroute, un IRI de 2,2 m/km ou moins indique un «bon état». Dans son dernier bilan de l’état des chaussées , le MTQ indique que 89 % de nos autoroutes respectent ce critère. Au sud de la frontière, la Federal Highway Administration (FHWA) mesure elle aussi l’IRI de son réseau. Elle exprime l’indice en pouces par mille et regroupe les résultats en catégories qui ne correspondent pas parfaitement aux définitions du MTQ, mais quand on fait les ajustements nécessaires1, on voit que 92 % des autoroutes américaines répondent au critère québécois de «bon état».

C’est mieux que «nos» autoroutes, mais l’écart est mince — en fait, c’est pas mal comparable. D’où, faut-il croire, l’impression de M. Lachance que nos chaussées ne sont pas pires qu’ailleurs.

Qu’en est-il, cependant, des routes plus secondaires? Ici aussi, les catégories américaines et québécoises ne s’alignent pas parfaitement, mais disons que nos «routes nationales» correspondent raisonnablement bien aux «principal arterials» en milieu rural de la FHWA2. Aux États-Unis, pas moins de 94 % d’entre elles respectent le critère de bon état de Transports Québec (2,5 m/km pour les «routes nationales»); c’est nettement mieux que le score québécois, de 76 %.

Enfin, ces données permettent une dernière comparaison : entre les «routes régionales» québécoises et la catégorie «minor arterials» en milieu rural de la FHWA, qui sont elles aussi raisonnablement équivalentes3. Et le portrait est essentiellement le même que pour les nationales : 95 % de bon état aux États-Unis contre 78 % dans la Belle Province.

«Il y a un paquet de facteurs qui peuvent expliquer que nos routes sont moins bonnes, explique M. Doré. Le climat en est un majeur. C’est sûr qu’entre Lacolle et Plattsburgh, il n’y a pas vraiment de différence, mais on a des infra­structures plus au nord [où le climat joue pour beaucoup, à cause des alternances gel-dégel et de l’humidité]. On a aussi une grandeur de territoire assez exceptionnelle, avec des routes qui desservent des secteurs peu peuplés, jusque sur la Basse-Côte-Nord, le Nord-du-Québec, etc. C’est lourd à entretenir.»

Mais le facteur clef, dans tout cela, demeure les investissements que le gouvernement est prêt à y mettre. «On a sans doute les routes qu’on a les moyens de se payer», indique M. Doré.

Notons tout de même à cet égard que l’état général des routes du Québec s’est amélioré depuis les années 2000. En 2006, seulement 63 % de l’ensemble du réseau routier provincial (autoroutes, nationales, etc.) était en bon état, alors que c’était 78,2 % en 2018. Il y a cependant eu une légère dégradation depuis un sommet atteint en 2014 (80 % de bon état). «On a eu un réseau qui était en déclin jusqu’au début des années 2000, ensuite il y a eu une période d’investissements massifs qui a permis d’améliorer les choses. Mais à partir de 2014, on a moins investi et ça a tout de suite recommencé à décliner», dit M. Doré.

Le Verdict

En grande partie vrai. L’état des autoroutes québécoises est à peu près le même que celui des autoroutes américaines, malgré une légère différence à l’avantage de ces dernières. Les routes nationales et régionales du Québec, cependant, sont clairement en moins bon état que leurs équivalents du sud de la frontière.

Sources:

(1) Le critère de bon état du MTQ pour les autoroutes, soit 2,2 m/km, correspond à 139 pouces par mille (po/mi). Comme cela tombe à l’intérieur de la catégorie «120 à 144 po/mi» de la FHWA, j’ai compté 20/25e de cette catégorie comme en «bon état», et 5/25e en «mauvais état». Notons que dans les données de la FHWA, j’ai considéré comme des autoroutes à la fois le réseau des Interstate et les «other freeways and expressways», parce qu’elles sont toutes à haute vitesse et que leur accès est restreint (interdit aux piétons, vélos, etc.).

(2) Dans les deux cas, l’accès n’est pas restreint (contrairement aux autoroutes), ces routes desservent des corridors majeurs de déplacements et elles relient des agglomérations de plus de 25 000 habitants. Le critère de bon état du MTQ pour les routes nationales (2,5 m/km) donne 158 po/mi; j’ai réparti la catégorie de la FHWA «145 à 170 po/mi» en conséquence.

(3) Dans les deux cas, ces routes relient des villages de moins de 25 000 habitants et/ou mènent à des attractions touristiques plus ou moins isolées. Le critère de bon état du MTQ pour les routes régionales (3 m/km) donne 189 po/mi; j’ai réparti la catégorie de la FHWA «171 à 194 po/mi» en conséquence.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite

Vérification faite: non, on ne «mange» pas une carte de crédit par semaine...

L’affirmation «Chaque personne ingère en moyenne environ 5 grammes de plastique par semaine ­[...­soit] l’équivalent d’une carte de crédit», lit-on dans un rapport récent du World Wildlife Fund (WWF), une organisation environnementaliste internationale. L’idée d’avaler une carte de crédit par semaine a manifestement marqué les esprits, puisque ce rapport a joui d’une couverture médiatique mondiale. Alors, voyons de quoi il retourne.

Les faits

Le rapport en question, No Plastic in Nature : Assessing Plastic Ingestion From Nature to People [http://bit.ly/327Vwf] est basé sur une étude commanditée par le WWF et faite par deux chercheurs de l’Université de Newcastle, en Australie. Ceux-ci ont passé la littérature scientifique en revue afin d’évaluer les quantités de plastiques qui se trouvent dans l’eau potable, le poisson, le sel, etc., et que nous avalerions donc en mangeant. Mais de l’aveu des chercheurs eux-mêmes, il reste encore de grands «trous» dans ce secteur de recherche qu’ils ont dû «boucher» par des hypothèses et des extrapolations. En outre, leur travail n’a pas encore été publié dans une revue savante et les détails méthodologiques ne seront pas dévoilés avant publication. Il y a donc, pour l’instant, un gros point d’interrogation au-dessus de leurs calculs.

Cependant, à en juger par ce qui a été révélé, il y a deux choses qui clochent dans ces résultats. La première, note le chimiste de l’Université Laval Normand Voyer, c’est que les chercheurs de Newcastle semblent avoir retenu des valeurs extrêmes de contamination au plastique. Ils se sont par exemple basés sur une étude menée à Dongguan [http://bit.ly/2XrlbBG], une ville chinoise très polluée. Ils citent également une étude qui conclut que la contamination des mollusques au microplastique est «minime» et «bien moindre que celle découlant des fibres textiles que l’on ingère quand on prend un repas à la maison» [http://bit.ly/2XP9WlT], mais le rapport du WWF place quand même les fruits de mer au deuxième rang des sources de contamination, avec 180 particules avalées par semaine — la première source, et de loin, étant l’eau potable à 1770 particules, pour un total hebdomadaire de près de 2000.

Notons tout de même qu’une autre étude récente est arrivée à des chiffres semblables, mais en comptant les particules (surtout des fibres textiles) que l’on respire [http://bit.ly/2Xq8X7w] — que le document du WWF considère comme une quantité négligeable, mais passons.

La deuxième chose qui cloche, c’est que même en imaginant un scénario du pire qui se rendrait jusqu’à l’absurde, il est impossible de se rendre à 5 grammes de plastique par semaine avec les chiffres du rapport du WWF. Celui-ci compte en effet les particules de 0 à 1 millimètre de diamètre. Alors supposons qu’absolument tous ces petits morceaux aient le volume maximal considéré par le rapport, soit 1 mm3. C’est totalement impossible puisque les études citées par le WWF indiquent que plus de 90 % des particules dans l’eau potable font moins de 0,1 mm de diamètre, mais «mettons que», comme on dit. Imaginons aussi que tout ce plastique est d’un type pas mal plus dense que la moyenne, à 1,3 gramme par cm3. Même dans ce scénario, qui exagère énormément le poids du plastique ingéré, on obtient : 2000 particules/semaine x 1 mm3/particule x 0,0013 g/mm3 = 2,6 grammes par semaine, et non 5 grammes. (M. Voyer m’a confirmé la validité du calcul.)

Il est possible que des «détails méthodologiques» encore non révélés viennent éventuellement changer la donne. Mais comme le rapport du WWF tient déjà compte de la principale source d’exposition aux microplastiques, soit l’eau potable, et comme mon calcul présume que toutes les particules font 1 mm³ (ce qui multiplie par au moins 1000 le volume des 90 % d’entre elles qui font moins de 0,1 mm de côté), on voit très mal comment on peut se rendre jusqu’à 5 grammes par semaine.

À l’heure d’écrire ces lignes, le chercheur principal derrière l’étude commandée par le WWF, Dr Thava Palanisami, n’avait pas répondu à un courriel du Soleil.

Verdict

A priori très douteux. On ne pourra être certain de rien avant la publication du fin détail méthodologique, mais sur la base des chiffres publiés dans le rapport du WWF, l’ingestion de microplastiques ne peut tout simplement pas atteindre «une carte de crédit [5 g] par semaine», ni même s’en approcher. Cela ne signifie pas que la pollution au plastique n’est pas un problème, mais simplement qu’on n’en ingère pas tant que ça.

+

DES INFOS À VÉRIFIER?

La déclaration d’un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n’aime pas les fausses nouvelles.

Vérification faite

Vérification faite: un monde sans pétrole, l'apocalypse?

L’affirmation «J’ai reçu récemment une vidéo que je qualifierais de pathétique (...qui a probablement été) commanditée par l’industrie pétrolière», s’insurge Odette Navratil, de Saint-Théophile. La vidéo [http://bit.ly/2Nl4H9u] en question est une capsule de quelques minutes de type «Qu’arriverait-il si?» et elle tente d’imaginer ce qui arriverait si nos sociétés décidaient ou devaient se priver complètement de pétrole du jour au lendemain. Le portrait décrit est loin d’être rose : «en moins d’un mois, la plupart des grandes villes deviendraient des zones anarchiques sans électricité ni nourriture [...et]en quelques mois la moitié de la population mondiale mourrait», à cause de la faim ou parce qu’ils n’auraient plus accès aux «produits de premiers soins et aux médicaments dérivés du pétrole». Plusieurs vidéos largement diffusées sur les réseaux sociaux reprennent ce thème apocalyptique, alors voyons ce qu’il en est.

Les faits

Il est impossible de «vérifier» la véracité de scénarios purement hypothétiques comme celui-là. Je laisserai donc de côté des affirmations telles que «la moitié de la population mondiale mourrait en quelques mois» ou encore «au bout de cinq ans, les survivants vivraient comme autour de 1900». Cependant, on peut évaluer si la base factuelle qui sert de point de départ à ces spéculations se tient debout. Ici, c’est la centralité du pétrole et de ses dérivés dans nos vies qui forme ce socle, et il y a deux choses à en dire.

La première, c’est que oui, il est absolument indéniable que le pétrole transcende notre monde. Son utilisation comme source d’énergie, bien sûr, est évidente, mais ce n’est qu’environ 40 % du pétrole qui sert aux transports, dit le chimiste de l’Université Laval Normand Voyer. Le reste passe dans d’innombrables autres applications, allant des revêtements de chaussée jusqu’aux fins plastiques en passant par les textiles. On parle donc ici d’une énorme part des objets de notre quotidien qui sont faits à partir de ce qu’il reste d’un baril de pétrole une fois qu’on en a extrait les carburants.

La vidéo de Mme Navratil mentionne à cet égard les «dentifrices, shampoings et crèmes à raser», notamment, ce qui est vrai, confirme M. Voyer : «Il y a beaucoup de cosmétiques qui sont à base de pétrole.»

Et il poursuit : «Les nylons, les diachylons, les détergents, beaucoup de médicaments sont dérivés du pétrole». Soulignons aussi que l’agriculture moderne ne serait pas aussi productive sans «or noir», car beaucoup de pesticides sont ou contiennent de ses dérivés.

«En ce moment, résume M. Voyer, on ne pourrait pas se passer complètement du pétrole.» Et sans aller jusqu’à cautionner l’alarmisme de la vidéo — qui parle, entre autres choses, de citadins désespérés qui attaqueraient des fermiers pour leur voler de la nourriture, rien de moins —, le chimiste croit tout de même qu’il y aurait «certainement un côté catastrophe si on devait s’en passer du jour au lendemain».

Or justement, c’est le second point à retenir, ici : personne (en dehors de ces vidéos apocalyptiques) ne parle de «sevrer» complètement nos sociétés du pétrole en 24 heures. Les décideurs et les écologistes ne sont pas tous également pressés de «sortir du pétrole», mais on parle ici d’un processus qui peut difficilement faire autrement que de s’étaler sur des décennies, justement à cause de l’immense utilité qu’a le pétrole actuellement.

Mais il existe des exemples montrant qu’il est possible de se passer de pétrole, et que c’est même bien entamé dans certains secteurs, indique M. Voyer. «La majorité des médicaments, avant, c’étaient des dérivés du pétrole. Aujourd’hui, c’est peut-être 50 %, et le reste est fait à partir de fermentations, avec des levures, des enzymes, etc. Alors on commence à avoir de plus en plus de médicaments biosourcés [NDLR qui ne sont pas issus de la pétrochimie]. Presque tous les antibiotiques sont biosourcés maintenant, alors que c’étaient des produits de synthèse avant. Alors on ne sera peut-être pas totalement capable de se passer du pétrole, mais on s’en va vers là», dit-il.

Enfin, notons que dans bien d’autres cas que les médicaments, les solutions de remplacement au pétrole existent déjà — moteurs électriques, plastiques fabriqués à partir de biomasse, cosmétiques biosourcés, etc. Elles ne sont pas massivement adoptées à cause de leurs coûts ou parce qu’elles viennent avec des inconvénients que le pétrole n’a pas (l’autonomie des moteurs est l’exemple classique, encore que c’est moins vrai de nos jours), mais cela tempère quand même les scénarios cataclysmiques.

À cet égard, notons que la vidéo que m’a soumise Mme Navratil ne fait aucune mention de ces solutions de rechange plus chères ou pas idéales, certes, mais déjà existantes.

Verdict

Pas dénué de vérité, mais douteux. L’idée de base est vraie : le pétrole occupe une place absolument centrale dans nos modes de vie, si bien qu’on ne pourrait pas s’en passer du jour au lendemain sans subir de lourdes conséquences. Mais il n’a jamais été question de s’en priver complètement d’un seul coup. Et pour bien des applications du pétrole, des solutions de rechange existent déjà (même si elles ne sont pas encore aussi performantes ou économiques), ce dont la vidéo ne dit rien.

Vérification faite

Vérification faite: les «fausses boulettes» sont-elles vraiment plus vertes?

L’affirmation «Après avoir vu la liste d’ingrédients de la fausse viande à la mode Beyond Meat, je me demandais quel est l’impact sur l’environnement de faire venir certains de ces ingrédients d’un peu partout sur la planète pour produire cette fausse viande et ensuite l’expédier ici et là. En d’autres termes, est-ce que c’est vraiment mieux pour l’environnement que de consommer du bœuf qui vient de sa région?» demande Éric Bourdeau, de Montréal.

Les faits

De manière générale, il ne fait aucun doute que la production de viande requiert plus de ressources que la production de fruits, légumes et céréales. Les animaux, en effet, doivent eux-mêmes être nourris avec des grains ou du fourrage, et ils ne transforment pas toute la nourriture qu’ils mangent en viande. Les chiffres varient pour la peine d’une étude à l’autre, d’une région à l’autre, d’une espèce à l’autre et selon les modes de production, mais on peut compter environ 3 kg de nourriture végétale (surtout des grains) pour produire 1 kg de viande, d’après la FAO, le bras agricole de l’ONU. [http://bit.ly/2KSJgdl]

Alors si l’on mangeait directement les végétaux au lieu de les donner à du bétail que l’on consomme ensuite, l’agriculture occuperait forcément moins d’espace, utiliserait moins d’eau, épandrait moins d’engrais et de pesticides, et brûlerait moins d’énergie. Beaucoup moins, en fait, et c’est particulièrement vrai pour le bœuf, parce qu’il transforme moins bien sa nourriture en muscle que les autres sortes de bétail et que sa digestion produit beaucoup de méthane, un important gaz à effet de serre (GES).

C’est le bœuf que les boulettes de Beyond Meat prétendent de remplacer, et tout indique qu’elles pèsent beaucoup moins lourd sur l’environnement. En septembre dernier, des chercheurs de l’Université du Michigan ont évalué ses impacts totaux, des champs jusqu’à l’épicerie [http://bit.ly/2KdIkjW], et ils ont trouvé que produire 1 kg de «fausses boulettes» dépense presque moitié moins d’énergie, émet 90 % moins de GES, occupe 92 % moins de territoire et consomme 99 % moins d’eau que 1 kg de bœuf.

Certes, on nous fera remarquer que cette étude a été commandée par le fabricant lui-même, ce qui peut impliquer des biais de la part des évaluateurs. C’est entièrement vrai, mais il faut aussi préciser que leur rapport a été révisé par trois autres scientifiques indépendants (deux de l’Université de Californie et un de Carnegie Mellon), qui l’ont jugé «de haute qualité» et dont les «méthodes sont scientifiquement et techniquement valides». En outre, Beyond Meat et Impossible Food (une autre entreprise qui fabrique des «fausses boulettes») ont gagné le prix Champion de la Terre l’an dernier, la plus haute distinction environnementale remise par l’ONU [http://bit.ly/2MMtYt8].

Alors comme les conclusions de cette analyse de cycle de vie ont été corroborées par des sources externes et qu’elles sont entièrement cohérentes avec ce que l’on sait de l’empreinte environnementale de la viande, il faut conclure que la commandite de Beyond Meat n’a pas biaisé les résultats pour la peine.

Reste une partie de la question de M. Bourdeau à laquelle il faut répondre : est-ce que les boulettes végétales sont environnementalement supérieures au bœuf haché même si le bœuf est produit localement?

Et la réponse est oui, parce que le transport ne compte pas pour beaucoup dans les GES émis par l’agriculture : autour de 85 à 90 % [http://bit.ly/2Re89RI et http://bit.ly/2Zn18Rq] des émissions surviennent à la ferme elle-même. Alors même en présumant qu’acheter local enlève complètement le 10 à 15 % restant, cela ne diminue pas beaucoup les avantages environnementaux documentés par l’étude de l’Université du Michigan.

Verdict

Vrai. Il est indéniable que l’élevage pèse plus lourd sur l’environnement que la production végétale, de bien des manières. Une analyse de cycle de vie a trouvé que l’empreinte des boulettes Beyond Meat est, selon l’indicateur, entre 50 et 99 % moindre que celle d’une quantité équivalente de viande. Le fait que le bœuf soit produit localement ou non ne fait pas une grosse différence.

Vérification faite

Vérification faite: le printemps froid à Québec à cause du lac Saint-Jean?

L’AFFIRMATION: «Nous avons récemment entendu à Radio-Canada que la température froide que connaissait la ville de Québec était attribuable au fait que le lac Saint-Jean n’était pas encore calé. Cela nous semble douteux. Qu’en est-il?» demande Alain Turcotte. Notre lecteur fait référence à un segment de l’émission «C’est encore mieux l’après-midi» du 8 mai, où le journaliste affecté à la météo Maxime Denis a dit que «tant que le lac Saint-Jean n’est pas calé, tant que les lacs ne sont pas calés, on a toujours une fraîcheur dans l’air». Une semaine plus tard, le 14 mai, il ajoutait : «En montant dans la réserve faunique des Laurentides en fin de semaine, de voir tous les lacs qui sont complètement recouverts de glace, c’est pour ça qu’il fait froid.»

LES FAITS

Il n’est pas complètement dénué de vérité de faire un lien entre la présence de glace sur les lacs et la température qu’il fait. Après tout, les surfaces blanches réfléchissent une bonne partie de l’énergie que nous recevons du Soleil, si bien que lorsque la glace cale, le lac «capte» plus de rayonnement.

Cependant, précise le météorologue d’Environnement Canada André Cantin, l’effet est très local et nettement moins grand que ce qu’on pourrait penser. «Cette glace-là, juste avant de caler, est presque rendue à 0°C. Et lorsque le lac vient juste de caler, l’eau est proche de 0°C aussi», dit-il d’abord. Avec ou sans glace, donc, le lac reste une grosse masse froide. En outre, quand les eaux redeviennent libres, les échanges de chaleur qu’elles ont avec l’atmosphère vont changer et se complexifier — parfois avec pour effet final de refroidir l’air alentour, et non de le réchauffer, indique M. Cantin.

Et de toute manière, à plus grande échelle, le lien entre la glace des lacs et la température est l’inverse de ce qui a été présenté à Radio-Canada : c’est la chaleur qu’il fait (ou non) un printemps donné qui détermine quand les lacs calent, pas la présence de glace sur les lacs qui refroidit l’air sur de grandes superficies.

En ce qui concerne l’idée que le lac Saint-Jean puisse avoir une incidence sur la température qu’il fait à Québec, M. Cantin estime que ce n’est «probablement pas» le cas. D’une part, comme on vient de le voir, l’effet réchauffant du départ des glaces, s’il existe, est trop local et modeste pour avoir été ressenti dans la capitale. Et d’autre part, signale le météorologue, il ne faut pas oublier que le jour où le lac Saint-Jean a calé, les montagnes tout autour, elles, demeuraient enneigées. Alors un petit «trou» au milieu de tout ce blanc peut difficilement avoir fait une différence notable.

Vers le début et la mi-mai, «c’est vraiment tout le Québec qui avait des températures sous les normales de saison, ce n’est pas le lac Saint-Jean qui causait ça, explique M. Cantin. C’était un système de basse pression, ce qu’on appelle une dépression froide, qui [...] maintenait des vents dominants du nord-nord-ouest. Alors ça amenait de l’air froid sur l’Ontario et à peu près partout au Québec.»

VERDICT

Faux. Le temps froid que la région de Québec a connu en mai s’expliquait par un système de basse pression qui a amené de l’air arctique sur tout le sud de la province et sur l’Ontario. La glace qui persistait sur le lac Saint-Jean ne peut pas en avoir été la cause car l’effet du «calage» des lacs, même les plus grands, est modeste et très localisé.

À LIRE AUSSI: Mai, huitième mois froid de suite!

Vérification faite

Vérification faite: la moitié des employés de soutien des universités en «détresse psychologique»?

L’AFFIRMATION: «Dans une campagne de pub récente [NDLR : parue dans plusieurs médias, dont Le Soleil], on lisait : «On a mal à l’université ; 53,4 % des employés de soutien souffrent de détresse psychologique. La pub disait s’appuyer sur une étude de l’UQAM commandée par le Syndicat canadien de la fonction publique. Mais que dit réellement cette étude? J’ai bien du mal à croire qu’un employé de soutien sur deux, à l’université, est en détresse psychologique», demande Louis Chamard.

LES FAITS

Il y a deux choses à considérer, ici. D’abord, il y a une connotation dramatique dans le nom «détresse psychologique» qui peut faire paraître les choses pires qu’elles sont. La détresse psychologique n’est pas un diagnostic à proprement parler, ce n’est pas l’équivalent d’une dépression, de pensées suicidaires ou d’un trouble anxieux. Il s’agit plutôt d’un état mental négatif qui se mesure par des questions comme «Au cours du dernier mois, avez-vous eu souvent/rarement eu l’impression que tout vous demandait un effort?» ou «que vous n’étiez bon à rien?» ou «que rien ne vous faisait sourire?»

Ça n’est certainement pas agréable à vivre, mais ce n’est pas un diagnostic en soi. On peut donc s’attendre à ce qu’une assez grande partie de la population en ressente — autour de 25 % au Québec. La détresse psychologique reste quand même un outil important parce qu’elle peut éventuellement mener à des dépressions ou d’autres problèmes si rien n’est fait. De nombreux chercheurs et instances sanitaires dans le monde s’en servent, dont l’Institut de la santé publique du Québec et les deux auteures de l’étude de l’UQAM, Julie Cloutier et Sabrina Pellerin.

Alors que dit-elle, cette étude? Elle conclut bel et bien que 53 % des employés de soutien des universités québécoises souffrent de détresse psychologique, sur la base d’un échantillon de plus de 900 personnes qui ont rempli deux questionnaires Web. Le taux de réponse a été très bas (seulement 24 %), ce qui ouvre en principe la porte à un «biais de sélection» important, puisque l’on peut penser que les gens en détresse se sentent plus interpellés par les études du genre. Cependant, les deux auteures se sont assurées que ce n’était pas le cas de diverses manières, notamment en comparant les caractéristiques (âge, sexe, etc.) de leurs répondants avec les listes syndicales de l’ensemble des employés visés.

«On peut conclure que la probabilité que les résultats de l’étude soient biaisés est faible», nous a écrit Mme Cloutier lors d’un échange de courriel.

On notera quand même une chose à propos de cette étude. L’échelle retenue (la Kessler Psychological Distress Scale, ou «K6» pour les intimes) est largement utilisée dans le monde et elle donne un résultat entre 0 et 24 points — plus le nombre de points est élevé, plus la détresse est intense. D’après l’INSPQ, un score de 13 et plus dénote une probabilité réelle que la personne souffre d’une maladie mentale grave; pour les scores plus bas, les seuils «diffèrent entre les études, mais plusieurs utilisent un score de 8 à 12 pour indiquer une détresse modérée», lit-on sur le site de l’Institut. Dans l’étude de l’UQAM, seulement 13,5 % des répondants avaient un score de 13 ou plus, et 39,9 % arrivaient entre 7 et 12 — ce que les auteures décrivent comme un niveau de détresse «important», et non «modéré». On peut certainement penser que ces choix méthodologiques ont pu noircir le portrait.

Cependant, il faut aussi noter que les deux chercheuses de l'UQAM ne sont pas les seules à retenir ce seuil : dans l'Enquête sur la santé de la population 2014-2015, l'Institut de la statistique du Québec fait la même chose [http://bit.ly/2W7ujeb, p. 138]. Si cela grossit le groupe des gens en détresse psychologique, cela ne le grossit donc pas forcément de façon artificielle. Et outre, l'étude de l'UQAM n’est pas la première à constater qu’il y a un problème de détresse chez les employés de soutien des universités québécoises. Une étude de Caroline Biron et Jean-Pierre Brun de l’Université Laval a en effet trouvé en 2008 que 41 % de ces travailleurs souffrent de détresse, ce qui reste nettement plus élevé que la moyenne provinciale.

VERDICT

Vrai. L’étude existe et elle conclut vraiment que 53 % des employés de soutien des universités québécoises souffrent de détresse psychologique. Il est possible que ce chiffre ait été grossi par certains des choix des auteures, mais d’autres chercheurs sont arrivés à des conclusions similaires dans le passé, alors tout indique que le problème est réel.

Vérification faite

Vérification faite: combien vaut un baril de pétrole albertain?

L’AFFIRMATION: «On invoque souvent le fait que le pétrole albertain est vendu à un bas prix parce qu’il n’y a pas de débouchés. Est-ce vrai? Et dans l’éventualité où ils trouveraient de meilleurs débouchés, est-il vrai que les prix à la pompe augmenteraient puisque le Québec achète une partie importante de son pétrole en Alberta?» demande François Morin, de Notre-Dame-du-Portage.

LES FAITS

Quand les politiciens albertains, comme l’ancienne première ministre Rachel Notley et l’actuel PM Jason Kenney, parlent du «rabais» sur le pétrole albertain et des milliards que cela fait perdre à la province, ils comparent toujours le prix d’un pétrole nommé Western Canada Select (WCS, issu des sables bitumineux) à celui d’un autre pétrole, le West Texas Intermediate (WTI), qui sert souvent de référence en Amérique du Nord.

Et il est vrai que le pétrole albertain se vend à un prix chroniquement inférieur à son «cousin texan», comme le montre le graphique ci-contre. En date de mars dernier, le WTI se transigeait à 58 $ le baril, contre seulement 48 $ pour le WCS. Il arrive assez souvent que des acteurs politiques attribuent entièrement ces écarts au fait que les pipelines sont saturés à l’heure actuelle.

Vérification faite

Vérification faite: le réchauffement deux fois plus rapide au Canada?

L’AFFIRMATION: «Est-il vrai que le Canada se réchauffe deux fois plus vite que le reste du monde ou est-ce surtout le Grand Nord qui voit ses glaciers fondre? Il y a tout de même une différence entre Toronto et Grise Fjord!» demande Jean Bourassa, de Québec.

LES FAITS

Le Canada se réchauffe effectivement deux fois plus vite, en moyenne, que le reste du globe. C’est en tout cas la conclusion du Rapport sur le climat changeant du Canada, dans lequel des scientifiques du fédéral et d’universités font le point sur les connaissances au sujet du réchauffement passé et à venir au Canada. Le document, en plus d’avoir été rédigé par des experts, a aussi subi un «examen externe» de la part d’autres spécialistes du climat. C’est donc une source on ne peut plus solide.

On y lit : «La température moyenne annuelle au Canada a augmenté de 1,7 ºC [... entre 1948 et 2016], soit environ le double de l’augmentation observée à l’échelle mondiale [0,8 ºC pour la période de 1948 à 2016], selon l’ensemble de données sur la température moyenne à la surface du globe produites par le Met Office Hadley Centre et le Climatic Research Unit à la University of East Anglia, au Royaume-Uni» (bit.ly/2YbsuJM, p. 14 sur 82).

Il s’agit d’une moyenne qui masque des différences régionales — c’est plus rapide dans le Grand Nord (+ 2,3 °C) et les Prairies (+ 1,9 °C), par exemple, et plus lent au Québec (+ 1,1 °C) et les provinces de l’Atlantique (+ 0,7 °C) —, mais l’idée d’un réchauffement plus rapide au Canada que dans le reste du monde reste un fait indéniable.

Cependant, on a tendance dans les médias et les réseaux sociaux à présenter ce genre de nouvelle comme si la situation du Canada était vraiment très particulière alors que ce n’est pas le cas, explique la climatologue du consortium de recherche Ouranos Dominique Paquin. La «moyenne canadienne» représente en effet les températures mesurées au-dessus des continents, sur la terre ferme, alors que la «moyenne mondiale» inclut les températures mesurées au-dessus des mers. Or, l’eau est un bon conducteur thermique, si bien que «les océans vont absorber plus d’énergie, ce qui en laisse moins dans l’atmosphère au-dessus», dit Mme Paquin.

D’après le site de la NASA, depuis la fin du XIXe siècle, la température au-dessus des continents a gagné autour de 1,7 °C sur près de 140 ans, donc une moyenne de 0,12°C par décennie, alors qu’au-dessus des océans, le rythme ne fut que d’environ 0,05 °C par décennie. Et comme les océans couvrent 70 % de la superficie de la Terre, cela explique une bonne partie de la différence entre le Canada et le «reste du monde», mais cela vaut aussi pour bien d’autres endroits, comme l’Europe, l’Australie et la Chine.

Il y a quand même des facteurs plus spécifiques, qu’on ne trouve pas partout et qui accélèrent les changements climatiques au Canada, dit Mme Paquin. Une bonne partie du pays est situé dans l’Arctique, où le réchauffement est beaucoup, beaucoup plus prononcé qu’ailleurs, et pas seulement parce que ce sont des terres émergées. Là-haut, le couvert de neige et de glaces marines a toujours réfléchi une bonne part du rayonnement solaire, mais ce couvert recule à cause des changements climatiques. Une plus grande partie de l’énergie solaire est donc absorbée par le sol ou l’eau de mer au lieu d’être renvoyée vers l’espace ce qui (avec d’autres facteurs) amplifie le réchauffement.

«Mais c’est la même chose dans d’autres pays aux mêmes latitudes, dit Mme Paquin. Si on regardait le cas d’un pays comme la Russie, par exemple, on aurait des résultats semblables.»

Contrairement à ce qu’on pourrait penser en lisant des manchettes disant que «le Canada se réchauffe deux fois plus vite que le reste de la planète», le pays est donc loin d’être le seul dans cette situation. Mais il demeure utile et important de mesurer le rythme du réchauffement de manière spécifique, comme le fait le Rapport sur le climat changeant du Canada, parce que cela donne un portrait de la situation plus précis que si on ne faisait qu’appliquer la moyenne mondiale aux cas canadien ou québécois.

LE VERDICT

Vrai, mais cela ne veut pas dire que les changements climatiques sont exceptionnels dans l’ensemble Canada. Il y a des variations régionales et les raisons qui expliquent pourquoi le réchauffement survient en moyenne plus vite ici (comme la latitude et la différence entre continents et océans) prévalent aussi dans d’autres parties du monde.

Vérification faite

Vérification faite: la «vraie» hausse des tarifs d'électricité

L’affirmation Dans le coin rouge : Hydro-Québec, qui soutient que l’augmentation de ses tarifs au 1er avril dernier ne fut que de 0,9 %. Dans le coin bleu : le chroniqueur de Québecor Michel Girard, qui affirmait la semaine dernière et cette semaine qu’il s’agit d’une «information trompeuse» et que la vraie hausse est trois fois plus élevée, à 2,9 % — ce que le pdg de la société d’État, Éric Martel, est allé jusqu’à qualifier de «fake news». Cette histoire a eu une grande répercussion sur les réseaux sociaux, alors voyons de quoi il retourne.

Les faits

Le tarif résidentiel d’Hydro-Québec est depuis longtemps organisé en deux parties : un tarif réduit pour les premiers kilowatts-heure (kWh) consommés chaque jour (les premiers 40 kWh/j depuis le 1er avril) et un tarif plus élevé pour l’électricité supplémentaire consommée le reste de la journée. Le mois dernier, ce tarif est passé de 5,91 ¢ à 6,08 ¢/kWh pour la première tranche de 40 kWh par jour, et de 9,12 ¢ à 9,38 ¢/kWh pour la consommation quotidienne additionnelle. Il s’agit d’augmentations de 2,88 % et de 2,85 % respectivement. C’est le calcul qu’a fait M. Girard et, si l’on ne s’en tient qu’à cela, c’est effectivement lui qui semble avoir raison.

Cependant, ce tarif n’est pas la seule chose qui entre dans la facture d’électricité. Il y a également une «redevance d’abonnement» de 40,64 ¢ par jour qui, elle, n’a pas augmenté, a signalé la société d’État dans une «mise au point». Dans une «contre-réplique» à Hydro-Québec publiée lundi, M. Girard a admis l’avoir omis dans ses calculs, mais maintient ses conclusions parce que cette redevance ne représente, dit-il, qu’une bien petite partie de la facture d’électricité. Ce qui est vrai : environ 12 $ par mois.

Or il semble que ce ne soit pas le seul oubli du chroniqueur. La société d’État maintient que la hausse n’est que de 0,9 % parce que le tarif réduit a été étendu : il ne s’appliquait qu’aux premiers 36 kWh par jour avant le 1er avril, mais ce «bloc est passé à 40 kWh/j depuis. Il y a donc 4 kWh par jour qui sont passés du tarif le plus élevé au tarif réduit. C’est la vérité, comme le montrent des documents de la Régie de l’énergie [http://bit.ly/2WlCtf0], mais mentionnons aussi à la décharge de notre collègue que ce point était loin d’être clair dans le communiqué émis par Hydro-Québec [http://bit.ly/2PH1kHv].

Quoi qu’il en soit, voyons voir si cela fait une grosse différence. D’après le chercheur et spécialiste des questions d’énergie de l’Université de Sherbrooke Marcel Lacroix, une maison chauffée à l’électricité consomme autour de 30 000 kWh par année, donc environ 80 kWh par jour [http://bit.ly/2Y2pGyA]. Alors avant la hausse de cette année, la facture mensuelle d’électricité de cette maison «moyenne» était de :

- 40,64 ¢/jour x 30 jours = 12,19 $ pour la redevance

- 5,91 ¢/kWh x 36 kWh/jour x 30 jours = 63,83 $ pour les premiers 36 kWh, au tarif réduit

- 9,12 ¢/kWh * 44 kWh/jour x 30 jours = 120,38 $ pour l’électricité supplémentaire

- Grand total : 196,21 $

Depuis le 1er avril dernier, en tenant compte des 4 kWh/jour passés au tarif réduit, cette même maison consommant la même quantité d’électricité doit payer :

- 40,64 ¢/jour x 30 jours = 12,19 $ pour la redevance

- 6,08 ¢/kWh x 40 kWh/jour x 30 jours = 72,96 $ pour le premier bloc de 40 kWh par jour

- 9,38 ¢/kWh x 40 kWh/jour x 30 jours = 112,56 $ pour l’électricité quotidienne supplémentaire

- Grand total : 197,52 $

La dernière hausse d’Hydro-Québec a donc fait passer la facture d’électricité de cette maison «moyenne» de 196,21 $ à 197,52 $ par mois, soit une augmentation de 0,7 %. Nous avons fait le même calcul pour des ménages qui consomment moins (60 kWh/jour), et il apparaît que leur facture d’électricité demeure à peu près la même (-0,18 %) — pas de hausse pour eux, donc. Par contre, pour les maisons plus grosses et plus énergivores, la facture augmente un peu plus que le 0,9 % mis de l’avant par Hydro-Québec : pour une habitation qui «brûlerait» 100 kWh/jour, par exemple, la hausse est de 1,1 %.

Verdict

Les chiffres sont du côté d’Hydro-Québec. À l’extrême limite, si l’on considérait séparément les seuls «tarifs» et la facture totale, on pourrait donner en partie raison aux deux côtés, mais la distinction nous paraît factice : c’est le total qui importe le plus. Et de ce point de vue, tout indique que la hausse est beaucoup plus proche du 0,9 % annoncé par la société d’État que du 2,9 % calculé par M. Girard.

Vérification faite

Vérification faite: de plus en plus d’inondations?

L’affirmation «On sait qu’avec les changements climatiques, ces phénomènes-là [les inondations] vont s’accentuer dans le futur», a indiqué mardi le populaire morningman Paul Arcand, au FM 98,5. Et il n’est pas le seul à le penser. «Ces phénomènes d’inondation, il est clair que ça va devenir exponentiel [à cause du réchauffement planétaire]», a déclaré sur les ondes de QUB radio la mairesse de Sainte-Julie, Suzanne Roy, qui préside le Comité sur les changements climatiques de l’Union des municipalités du Québec.

Radio-Canada titrait le week-end dernier que «les changements climatiques influencent [...] l’intensité des inondations». Et même le premier ministre fédéral Justin Trudeau a dit mercredi, lors d’une visite à des sinistrés de l’Outaouais, que ce genre de catastrophe naturelle allait arriver «de plus en plus souvent».

Les faits

Il est vrai que l’on prévoit que le réchauffement climatique va rendre certains événements météo extrêmes plus fréquents, comme les épisodes de pluie intense — c’est même déjà commencé. Il n’est donc pas déraisonnable de penser qu’au moins dans certaines régions du globe, les inondations surviendront plus souvent. C’est d’ailleurs le cas dans le nord-est des États-Unis, où l’on en compte plus qu’avant — mais il y a plusieurs autres secteurs du pays où c’est le contraire qui se passe, si bien que la tendance générale n’est pas claire.

Au Québec, cependant, «la crue principale, c’est celle du printemps», fait remarquer Dominique Paquin, climatologue au consortium de recherche Ouranos. Cela signifie que même si des inondations peuvent se produire en toute saison, le risque est nettement plus grand au printemps : dans les bases de données de Sécurité publique Canada, sur les 30 inondations dites «catastrophiques» répertoriées au Québec entre 1970 et 2014, plus de la moitié (17) sont survenues entre la fin de mars et le mois de mai.

Or dans les modèles climatiques et hydrologiques, il est loin d'être clair que ces crues deviendront de plus en plus fortes, indique Mme Paquin. En effet, si nos hivers se réchauffent, alors les épisodes de fonte deviendront plus fréquents de décembre à mars, et il restera moins de neige pour gonfler les rivières au printemps. D’ailleurs, à la suite des inondations de 2017, Ouranos avait publié un «questions-réponses» indiquant qu’«en moyenne, il n’est pas attendu dans le futur que les crues printanières deviennent plus importantes dans le sud du Québec notamment en raison d’une plus faible accumulation de neige durant l’hiver».

Ouranos a publié tout récemment une mise à jour de son «questions-réponses» pour tenir compte des dernières avancées scientifiques. «Pour les grands bassins versants comme celui par exemple de la rivière des Outaouais, le comportement à long terme, si l’on se projette dans 100 ans, est à la diminution des probabilités d’avoir des inondations», y lit-on. Il n'est pas impossible que qu'à moyen terme, la baisse des crues printanières moyennes s'accompagne d'une hausse des crues extrêmes, mais ces résultats sont loin d'être certains.

Pour les bassins versants plus petits, cependant, on peut s'attendre à des risques d'inondation plus élevés en été et en automne parce que les épisodes de pluie intense seront plus fréquents. Cependant, «pour les crues printanières, les tendances sont les mêmes que pour les grands bassins versants», soit une diminution, lit-on dans le document.

Enfin, le Centre d’expertise hydrique du Québec — les spécialistes du débit des rivières au gouvernement — publie périodiquement un Atlas hydroclimatique du Québec méridional, dont la dernière version ne prévoit pas de tendance à la hausse pour les crues printanières (récurrence de 20 ans) dans le sud de la province. En fait, cinq rivières de l’extrême sud devraient voir une «diminution probable» de leurs crues d’ici 2050, et les autres seront stables. Une demi-douzaine d’autres connaîtront une «augmentation probable», mais elles sont toutes situées beaucoup plus au nord, au Lac-Saint-Jean et sur la Basse-Côte-Nord.

Cependant, ce même document prévoit des «augmentations probables» des «crues» d’été et d’automne pour le sud et l’est du Québec, puisque les précipitations extrêmes devraient augmenter. Rappelons toutefois que, comparés au printemps, les débits moyens sont beaucoup plus faibles pendant ces saisons.

Le Verdict

En grande partie faux. Dans le sud du Québec, le principal risque d’inondation est associé à la crue printanière, et les meilleures expertises disponibles prévoient que les changements climatiques ne devraient pas l’augmenter d'ici la fin du siècle — en tout cas, pas pour les grands bassins versants, qui verront même leur risque diminuer. Dans les bassins versants plus petits, cependant, le risque devrait augmenter.

* * * * *

DES INFOS À VÉRIFIER?

La déclaration d'un ministre vous paraît douteuse? Une information qui circule vous semble exagérée, non fondée? Écrivez à notre journaliste (jfcliche@lesoleil.com). La rubrique «Vérification faite» prendra le temps de fouiller les faits, en profondeur, afin de vous donner l’heure juste. Car nous non plus, on n'aime pas les fausses nouvelles.

Vérification faite

Vérification faite: une «vague» d’attaques contre des églises françaises?

L’AFFIRMATION: «Pendant la semaine pascale, #NotreDame brûle. En mars : la deuxième plus grande église, Saint-Sulpice, brûle», a tweeté Alice Weidel, co-leader du parti anti-immigrant Alternative pour l’Allemagne, laissant entendre que l’incendie de Notre-Dame-de-Paris n’était pas un événement isolé. C’est un thème qui a été repris par plusieurs médias et figures de proue de l’«alt right» au cours des derniers jours. The Rebel Media et Russia Today, notamment, ont tous deux souligné que le brasier de lundi est survenu juste après une «montée de la violence religieuse» qui «cible principalement des chrétiens».

LES FAITS

Comme les autorités françaises considèrent jusqu’ici que l’incendie était accidentel, il est évident que tout lien avec une vague d’attaques ne peut être autre chose que totalement artificiel. S’il s’agit d’un accident, alors par définition il ne peut pas faire partie d’une série d’actes hostiles. Mais voyons tout de même quelle est cette soi-disant vague de violence religieuse à laquelle on tente de rattacher l’incendie de Notre-Dame-de-Paris.

Les médias français ont bel et bien fait état d’une «vague» de vandalisme contre des églises cet hiver. En février, en l’espace d’environ une semaine, ils ont relaté les cas d’églises à Nîmes, Maisons-Laffite, Dijon, Houilles, Lavaur et Saint-Cyr-l’École qui ont reçu la visite de casseurs. Les dégâts tournent souvent à peu près autour des mêmes thèmes (ici un tabernacle renversé ou brisé, là une croix ou des statues renversées, etc.). En mars sont venus s’ajouter deux autres cas (8 en tout) : l’incendie criminel à l’église Saint-Sulpice, qui est la deuxième plus grande église de Paris après Notre-Dame, et du vandalisme sur l'orgue de la basilique Saint-Denis.

Maintenant, est-ce suffisant pour constituer une «vague» ou une «montée de la violence religieuse»? Ces profanations sont survenues dans un assez bref laps de temps, c’est vrai, mais elles ne sont que huit, ce qui est un très petit nombre à l’échelle d’un pays comme la France. Selon les derniers chiffres du ministère de l’Intérieur, il survient environ 1000 à 1100 «actes anti-chrétiens» par année en France, et les données de 2018 ne laissent pas entrevoir de hausse. Ces gestes vont du simple graffiti punk sur un mur d’église jusqu’aux dégradations plus graves comme celles de février, en passant par les pierres tombales renversées, etc. Plus important, ils ne se répartissent pas uniformément dans le temps : ils peuvent paraître plus fréquents par moment par le seul effet du hasard. Rien dans ce que nous avons trouvé n’indique qu’il s’agisse d’autre chose que ça.

Il est vrai que dans les stats de l’Intérieur, les «actes antichrétiens» sont le groupe de gestes haineux le plus nombreux, représentant à eux seuls environ la moitié de tous les actes répertoriés. Mais cela s’explique simplement par le fait qu’il y a en France beaucoup plus de lieux de culte chrétiens que de non-chrétiens : environ 45 000 églises catholiques, contre près de 2500 mosquées et 500 synagogues.

Enfin, l’idée de «violence religieuse» évoquée par The Rebel et RT laisse entendre que l’on a affaire à une religion qui s’en prend à une autre, mais il est très loin d’être clair que ce soit le cas. Parmi les huit églises vandalisées cet hiver, on connaît trois suspects. À Maisons-Laffites, c’est un sans-abri de 35 ans qui a agi. À Houilles, c’est un homme de 32 ans qui disait ne pas comprendre pourquoi «Dieu lui en veut depuis trois ou quatre ans», rapportait Le Parisien. Et dans le cas de la basilique Saint-Denis, c'est un Pakistanais arrivé en France deux mois plus tôt qui subit maintenant son procès, mais rien dans ce qui est ressorti des procédures jusqu'à présent ne donne à croire qu'il était motivé par la religion — une expertise psychiatrique est en cours.

Par ailleurs, le cas de Saint-Cyr-L’Éole était un simple graffiti «Jésus était anarchiste» et le curé de Saint-Sulpice a déclaré dans une entrevue au magazine Le Point qu’il ne considérait pas l’incendie de mars comme une attaque antireligieuse : «L’incendie a eu lieu à la porte de l’édifice. On ne peut pas parler de profanation», analyse-t-il.

Dans l'ensemble, ces faits cadrent mal avec l’idée d’une haine antichrétienne qui serait motivée par la religion.

VERDICT

Très douteux. Au-delà du fait que, par définition, un accident ne peut pas faire partie d’une série d’attaques, l’existence même d’une vague de vandalisme contre les églises françaises est mal établie. Et les profanations qui ont eu lieu ne semblaient pas, de ce qu’on en sait jusqu’ici, motivées par la religion.

Vérification faite

Vérification faite: vraiment verts, les sacs de coton?

L’affirmation: Marie-Pierre Lapointe, de Québec, nous envoie un article paru dimanche sur le site de Météomédia et qui, s’appuyant sur une étude danoise, dit que les sacs de coton dont on se sert pour faire l’épicerie ne sont pas aussi «écolo» qu’on le pense. En comptant tout leur cycle de vie, chacun d’eux polluerait autant que jusqu’à 20 000 sacs de plastique, qui ont pourtant très mauvaise réputation. Il faudrait donc les réutiliser 20 000 fois pour que leur empreinte écologique devienne plus faible. Alors, «est-ce que ces conclusions sont fondées», demande Mme Lapointe?

LES FAITS

L’étude en question a été publiée en février 2018 par le ministère de l’Environnement du Danemark. Elle compare les «coûts» environnementaux (eau, GES, toxicité, etc.) de différents types de sacs (divers plastiques, papier, etc.), en tenant compte de toutes les étapes de production, distribution, usages et devenir final — ce que les chercheurs appellent une «analyse de cycle de vie». Elle conclut effectivement que les sacs de coton sont de loin les plus polluants, et que le coton biologique l’est encore plus parce que l’agriculture bio, ayant de moins bons rendements, demande plus d’espace et de ressources.

Du point de vue des changements climatiques, conclut ce rapport, il faut réutiliser un sac de coton une cinquantaine de fois pour qu’il ait moins d’impact qu’un sac de plastique mince à usage unique, comme on en trouve à l’épicerie, et pour les autres critères, cela va jusqu’à 7000 fois! Si le coton est «bio», alors on parle plutôt de 150 et 20 000 fois, respectivement.

Alors, que disent les autres études sur cette question? Les résultats danois sont clairement des extrêmes à cause de certains choix méthodologiques. Par exemple, ses auteurs n’ont pas considéré les sacs qui sont perdus dans la nature, où ils persistent très longtemps; le fait que le Danemark incinère ses déchets et en tire de l’électricité peut aussi avoir fait mieux paraître les sacs de plastique. Mais quand même, il existe plusieurs autres analyses de cycle de vie très sérieuses qui «penchent du même bord».

Ainsi, le Centre international de référence sur le cycle de vie (CIRAIG, rattaché à la Polytechnique de Montréal) concluait à la fin de 2017 qu’il faut entre 100 et 3650 utilisations, selon le critère retenu, pour qu’un sac de coton devienne plus «vert» qu’un sac de plastique à usage unique — notons cependant que pour le critère «abandon dans l’environnement», le coton est environ 700 fois moins pire. L’Environnement britannique a fait le même genre d’exercice en 2011 et est arrivé à des chiffres relativement comparables : un sac de coton pollue autant qu’entre 130 et 400 sacs de plastique. Même son de cloche dans une étude parue en 2009 dans le Journal of Fiber Bioengineering and Informatics. Les chiffres diffèrent parce que les prémisses du calcul (les critères d’évaluation) ne sont pas les mêmes, mais les conclusions sont cohérentes.

L’explication est fort simple, et est la même dans toutes ces études : le gros de l’impact environnemental des sacs est lié à leur production. C’est l’extraction des ressources et l’énergie nécessaire pour leur transformation et leur transport qui laissent la plus grosse empreinte — et cela avantage le sac de plastique. «Par sa minceur et sa légèreté, étant conçu pour un usage unique, son cycle de vie nécessite peu de matière et d’énergie. De plus, il permet d’éviter la production de sacs à ordures puisqu’il est couramment utilisé pour cette fonction également», souligne le rapport du CIRAIG. Un sac de polyéthylène mince fait moins de 50 microns d’épaisseur et pèse à peine quelques grammes; par comparaison, un sac de coton peut peser plus de 200 grammes. Cela fait beaucoup plus de matière à produire, transporter et transformer.

Évidemment, l’idéal serait que tout le monde se procure des sacs réutilisables (en coton ou d’autres matériaux) et s’en serve assez de fois pour que leur empreinte passe en dessous de celle des sacs de plastique, mais le CIRAIG n’a pas pu «déterminer si ces nombres sont réalistes dans le contexte québécois».

LE VERDICT

Vrai. L’étude danoise arrive à des chiffres extrêmes, mais ses conclusions vont dans le même sens que plusieurs autres analyses du cycle de vie : les sacs de coton nécessitent un très grand nombre de réutilisations avant de devenir préférables aux sacs de plastique à usage unique. Notons par ailleurs que ce nombre est en général beaucoup plus bas (entre quelques fois et quelques dizaines de fois) pour les sacs réutilisables en plastique.