Friday, June 06, 2008

Le crime au Canada depuis 30 ans; l'analyse doctrinaire vs rationelle

http://www.aei.org/publications/pubID.23633,filter.all/pub_detail.asp

Lisez ce texte savoureux de David Frum, le joyeux illuminé a qui l'on doit le terme "axis of evil" (l'axe du mal) faisant référence à l'Iraq, l'Iran et la Corée du Nord (il écrivait les textes de George W. Bush).

À premier abord, ça fait sursauter. Malheureusement, la réaction provoquée serait bien mauvaise conseillère si le but était de définir un nouveau cadre législatif ou même de préparer un plan d'action contre le crime. Parce que monsieur Frum avait déjà un biais avant d'écrire son article; celui de dire que les politiques laxes du gouvernement Libéral en place en matière de criminalité ont fait progresser le crime au Canada alors que les politiques dures des É.-U. auraient résulté en une baisse significative du crime.

L'observateur orienté résultat lui, se doit :
- d'aller au fond des choses sans prendre de raccourci, pour obtenir une véritable perspective de la situation
- ne pas se laisser influencer par son billet naturel
- accepter les indications que lui donnent les chiffres sans jugement hâtif
- accepter que toute l'information ne soit pas toujours disponible
- accepter les résultats même s’ils sont contraires a l'hypothèse de départ
- développer des solutions politiques basées sur les succès obtenus, les 'best practices'

Alors que la Cour suprême américaine vient de renverser l’interdiction de porter une arme à feu à Washington DC, il est important d’approfondir ses recherches au-delà de la perception initiale. Dans un océan de données, il est relativement facile de trouver une information ou une autre qui concordera avec la perception que l’on veut bien avoir de la réalité plutôt qu’à la réalité elle-même.

Cet événement me donne l’occasion de répondre finalement à cet article de David Frum (Publié dans le Financial Post du 3 janvier 2006) auquel je n’avais pas eu le temps de compiler toutes les informations nécessaires pour formuler une réponse qui me satisfaisait au niveau de la recherche statistique.

Les éléments statistiques énoncés par Mr. Frum ont déjà bien été mis en pieces par Chris Selley
(http://www.tartcider.com/blog/archives/2006/01/crime_and_embel.html) et Dan Gardner du Ottawa Citizen (http://www.dangardner.ca/Colfeb1506.html). Je n’y reviendrai que pour rétablir les faits, en Français cette fois-ci, et clarifier certains détails avec utilisation de graphiques.

Comparer ce qui est comparable

M. Frum compare directement les statistiques du FBI et de Statistiques Canada. Ce qui ne peut se faire directement. Dans l’étude de Statistiques Canada titrée « Feasibility Study on Crime Comparisons Between Canada and the United States » (Catalogue Statistiques Canada no. 85F0035XIE), on apprend que les taux associés au crimes violents ne peuvent être comparés directement, mais que certaines de ses composantes peuvent l’être. Ainsi, lorsqu’on reconstitue le taux de crime violent selon les instructions de l’étude, on obtient :

Bien que j’aie une grande confiance en Statistiques Canada, j’ai toutefois fouillé le Web pour m’assurer de la validité de ces comparatifs.

Certains blogs référaient à l’étude « INTERNATIONAL COMPARISONS OF RECORDED VIOLENT CRIME RATES » de Tanya Segessenmann du Ministère de la Justice de la Nouvelle-Zélande, complété en l’an 2000. Malgré que cette étude ne compare pas chaque pays entre eux, mais plutôt chacun d’eux à la Nouvelle-Zélande, ce que j’ai fait est de rapporter ces comparaisons sur la même échelle en utilisant la Nouvelle-Zélande comme référence avec une valeur de 1. Voici les résultats pour les crimes violents, rapportés à la même échelle (année 2000) :



Le ratio É.-U./CAN, essentiellement le même que celui dérivé de l’étude de Statistique Canada, vient renforcer la validité de cette dernière.


Une autre étude, des États-Unis celle la, titrée « Cross-National Studies in Crime and Justice » (2004, édité par David P. Farrington, Patrick A. Langan, et Michael Tonry du U.S. Department of Justice), arrive aux mêmes conclusions que l’étude de Statistiques Canada. Détails en Page 137.


Avec ces points de comparaisons plus fiables, il est possible de faire une analyse plus éclairée. Par contre, il ne faut pas se leurrer et comme le note tous les organismes de collection statistique, il y a de nombreux autres facteurs qui entre en ligne de compte et influence ces taux, tel que les délais entre le moment ou un crime est commis versus rapporté, la diligence et la consistance des autorités dans l’exercice de collection des données, etc. Ainsi, il faut toujours garder en tête qu’il y a une marge d’erreur explicite et/ou implicite à tout énoncé statistique.

Analyser la situation

À première vue, ce qui m’apparait digne d’intérêt, c’est l’augmentation suivie de la baisse foudroyante des crimes violents aux États-Unis, la tendance à la hausse au Canada et au Québec depuis 2000 et la similitude des deux courbes.

Les tendances des composantes du taux de crimes violents se décomposent ainsi :




Si la tendance des composantes de crimes violents aux États-Unis suit une courbe similaire à son agrégat, la situation est très différente au Canada, ce qui m’a poussé à continuer à approfondir les tendances au niveau provincial, ce qui donne :








“One size fits all” ne s’applique pas au Canada. Le Québec, la Saskatchewan et l’Alberta doivent mettre l’emphase à comprendre et lutter contre les causes de la croissance fulgurante des assauts. La plupart des provinces devraient pour leur part essayer de comprendre le succès du Québec à lutter contre le vol depuis 1983. Pour une raison de limite de temps, je ne peux aller dans les détails de chaque province, mais je suis presque certain qu’on y trouverait aussi des différences significatives au niveau des sous-régions et des villes.


Dans son article, David Frum affirmait que la baisse fulgurante des crimes violents aux États-Unis démontrait bien que de mettre les gens en prison était efficace. En traçant le taux d’homicides vs le taux d’incarcérations (ci-bas), on voit bien qu’il n’y a pas de corrélation évidente (J’ai choisi le taux d’homicide puisque cette donnée était disponible de façon continuelle depuis 1925).




Mr Frum affirme aussi qu’il est maintenant plus probable de se faire attaquer a Toronto qu’a New York… ce que je vous laisse juger par vous-même avec les données suivantes, toujours en utilisant des statistiques comparables :






Je n’ai rien en tant que tel contre les politiques socialement conservatrices de Mr Frum mais les données ne supportent tout simplement pas ses affirmations.

Ce que l’on peut affirmer avec un degré de confiance raisonnable (en utilisant des critères comparables entre les É.-U. et le Canada):

  • Le taux de crime violent au Canada est en augmentation depuis huit ans
  • La composante de crime violent la plus inquiétante est l’assaut, qui est en augmentation presque constante depuis plus de 30 ans
  • Après avoir grandement augmenté pendant les années ‘80s, le taux de crime violent aux É.-U. a connu une décroissance fulgurante depuis 1993
  • Le taux de crime violent du Canada est d’environ la moitié de celui des États-Unis
  • Les grandes villes Canadiennes ont un taux de crime violent environ le tiers de celui des grandes villes américaines.
  • Les données statistiques américaines ne supportent pas l’affirmation qu’envoyer les gens en prison réduit le taux d’homicide.


Pistes d’explications et offres de politiques

Tenter d’identifier les causes qui sous-tendent la criminalité violente est une affaire complexe et je ne voudrais pas prétendre avoir des réponses alors que la criminalité n’est pas mon champ de travail. Par contre, les études consultées et les statistiques nous permettent tout de même de faire quelques constats :

  1. S’il est difficile de proposer des solutions en garantissant des résultats bénéfiques, il est toutefois plus simple d’éliminer les approches de lutte au crime qui ne fonctionnent pas; par exemple, l’incarcération est une méthode qui, seule, n’a pas fait ses preuves.
  2. Réduire la lutte au crime à une seule approche est simpliste

La jeunesse comme facteur aggravant :





Au Canada, il y a forte corrélation entre le taux de meurtre et la proportion de la population en âge de 18 à 31 ans. C'est-à-dire que le pourcentage de la population entre 18 et 31 ans contribue à 76.8% à la variation du taux de meurtre au Canada. Bien entendu, corrélation n’est pas causalité.

Cette connaissance apporte un outil précieux pour définir des politiques sociales et policières visant à cibler ce groupe d’âge puisque les grandes variations de taux de criminalité violente deviennent prévisibles statistiquement.

Les criminels semblent réagir aux incitatifs directs et immédiats :

Bien que les causes de la réduction de la criminalité à New York soient toujours débattues (http://query.nytimes.com/gst/fullpage.html?res=9E03E3D61238F93AA15752C1A9649C8B63), plusieurs attribuent ce « miracle » à trois phénomènes; l’augmentation importante des forces policières et la « police intelligence », c’est-à-dire l’automatisation des processus de lutte au crime, ainsi que l’utilisation de pratiques nouvelles telle que le « fixing broken window » (http://en.wikipedia.org/wiki/Fixing_Broken_Windows).

Bien que ce soit encore à prouver, il me semble logique que les criminels n’agissent pas vraiment différemment du reste de la population face aux incitatifs auxquels ils font face. Par exemple, si un criminel a l’opportunité de commettre un méfait, mais qu’il sait qu’il se fera prendre dans 100% des cas, il aura moins tendance à passer aux actes même si sa peine de prison potentielle est faible. Par opposition, même avec l’imposition d’une peine minimale de plusieurs années de prison, un criminel aura peu d’incitatifs immédiats à ne pas commettre de crime s’il perçoit que ses chances de se faire prendre soient faibles.

Au niveau de la définition de politique de lutte au crime, ceci indique que l’on devrait privilégier l’investissement dans les ressources policières plutôt que carcérales, et éviter d’allonger inutilement les sentences. Donner les moyens aux forces policières et à la population en général de mesurer les résultats des initiatives prises me semble aussi un point essentiel, permettant ainsi d’éliminer les mesures non efficaces et de bonifier celles qui le sont.


La disponibilité des armes de poing

Mes recherches tendent à me faire croire qu’il y a peu de corrélation entre la proportion totale d’armes à feu et la prévalence des crimes violents. Aussi, les lois restreignant l’ensemble des armes à feu semblent aussi avoir un succès pour le moins discutable, surtout lorsqu’une juridiction telle que le Canada est en bordure d’une autre, et que les mesures de contrôle ne soient pas harmonisées.

Par contre, il semble y avoir une certaine corrélation entre la disponibilité/facilité d’accès aux armes de poing et le taux d’homicide.

Tout en laissant une grande liberté de possession et d’utilisation d’armes longues, il me semble qu’un contrôle accru et harmonisé des armes de poing, automatiques et semi-automatiques en Amérique est de mise.

P.S Alors que je mettais la touche finale sur mon billet, je suis tombé sur cette étude des services correctionnels du Canada. Sa lecture m’a fait un petit velours puisque quelques-unes de ses analyses et conclusions sont semblables aux miennes :

http://www.csc-scc.gc.ca/text/rsrch/briefs/b29/b29-fra.shtml

Sources :

Sunday, June 01, 2008

Surface parking - Montreal


En bleu, les espaces de stationnement de surface (outre ceux sur les rues) au centre ville de Montréal.
In blue, the downtown Montreal surface parking spots (street-side parking not included).

Tuesday, May 20, 2008

Urbanism

Just thought I'd digress a bit from what is usually my collection of commented stats to provide what is some of the best Duany (from the New Urbanism movement) that I could find on YouTube. To view just before or just after you have read "The death and life of great american cities".

I'm not a big fan of Le Corbusier, as you might have guessed...



































Tuesday, April 22, 2008

Un autre bon coup de Line Beauchamp

Je vous laisse d'abord lire le communiqué:

"Projet de règlement sur le chauffage au bois
Pour une amélioration de la qualité de l'air et la santé des québécois

Montréal, le 18 avril 2008 – « Dorénavant, les poêles, foyers et autres appareils de chauffage au bois fabriqués ou vendus au Québec devront être certifiés ». C’est en ces termes que la ministre du Développement durable, de l’Environnement et des Parcs, Mme Line Beauchamp, a annoncé la publication pour consultation publique du Projet de règlement sur les appareils de chauffage au bois dans la Gazette officielle du Québec.

Ce projet de règlement vise à interdire, au Québec, la fabrication, la vente et la distribution d’appareils de chauffage au bois non conformes aux normes environnementales de l’Association canadienne de normalisation (ACNOR) ou de l’United States Environmental Protection Agency (US EPA).

L’objectif de ce projet de règlement est d’assurer une protection accrue de l’atmosphère contre l’émission de particules causées par l’utilisation des appareils de chauffage au bois. « Il s’agit d’une étape essentielle pour minimiser l’augmentation des émissions polluantes reliées au chauffage au bois et à plus long terme, réduire ces émissions à mesure que les appareils polluants existants seront remplacés par les nouveaux modèles conformes », a déclaré la ministre Beauchamp.

Les appareils certifiés émettent jusqu’à dix fois moins de particules fines et trois fois moins d’autres contaminants que les appareils de chauffage conventionnels, lesquels sont responsables de plus de 40 % des particules fines émises dans l’atmosphère au Québec. En hiver, le chauffage au bois est le principal responsable des valeurs élevées de particules fines dans plusieurs quartiers résidentiels et, dans certains cas, du smog hivernal. « Le projet de règlement fait donc partie des outils que le gouvernement veut mettre à la disposition de la population pour changer cette situation et garantir une amélioration de la qualité de l’air et de la santé des Québécois », a ajouté Mme Beauchamp.

Pour les consommateurs, l’achat d’un poêle certifié procurera des économies pouvant aller jusqu’à quelques centaines de dollars par année, dépendamment s’il s’agit d’un chauffage d’appoint (30 % du chauffage total) ou du chauffage principal. Ainsi, l’excédent du prix à l’achat sera amorti, sur une période de deux à sept ans, par les économies de combustible. Par la suite, le poêle certifié permettra aux consommateurs de réaliser annuellement des économies.

Il est également important de noter que des activités de sensibilisation seront entreprises par le Ministère pour inciter les propriétaires d’appareils non conformes à changer leurs équipements et à se doter d’un appareil certifié.

Le projet de règlement est soumis à la consultation publique pendant une période de 60 jours. Il peut être consulté dans le site Internet du ministère du Développement durable, de l’Environnement et des Parcs.

Les personnes intéressées sont invitées à soumettre leurs commentaires par écrit, d’ici le 23 juin 2008, en les faisant parvenir à M. Michel Goulet, chef du Service de la qualité de l’atmosphère, ministère du Développement durable, de l’Environnement et des Parcs, Édifice Marie-Guyart, 675, boulevard René-Lévesque Est, 6e étage, boîte 30, Québec (Québec), G1R 5V7.

Pour toute question relative au projet de règlement, communiquez avec M. Carol Gagné au numéro de téléphone 418 521-3813, poste 4594, par télécopieur, au numéro 418 646-0001 ou par courrier électronique, à carol.gagne@mddep.gouv.qc.ca."


C'est un autre bon coup de Mme Beauchamp. C'est une bonne politique du point de vue de l'observateur 'orienté résultat' pour les raisons suivantes:

  1. Elle ne limite pas le choix du consommateur; il existe de nombreuses solutions de substitution pour le foyer à bois traditionnel (foyer à bois à la norme EPA/ACNOR, au gaz, foyer de masse, etc.)

  2. Les solutions de rechange sont abordables (ou ont un retour sur investissement positif à relativement court terme)

  3. Les objectifs visés sont clairs et les résultats mesurables à moyen terme

  4. Le marché n'a pas réussi à atteindre ces objectifs de lui-même en temps opportun

  5. Il y a lien le plus direct possible entre la cible visée et le moyen utilisé

Pour les points 1 et 2, une recherche rapide sur Google vous permettra rapidement de valider ces affirmations: le retour sur investissement d'un foyer à bois à la norme EPA/ACNOR est d'environ 5 à 7 ans et les solutions de rechange sont nombreuses.
Les objectifs visés sont extrêmement clairs et d'ici quelques années, il sera relativement simple d'en mesurer les résultats.

Voyons maintenant ce qui en est des points 4 et 5. Regardons de prime abord les chiffres des émissions des principaux contaminants au Québec. Je ne m'attarderai qu'aux quantités absolues émises; les calculs d'intensité sont fallacieux parce qu'ils n'indiquent pas clairement les émissions totales de polluants. Si on prend une ville par exemple, et qu'on se réjouit que l'intensité des émissions des automobiles diminue, ça ne nous apportera rien de positif au point de vue environnemental si le nombre d'automobiles croît dans une proportion plus rapide. Heureusement, ce n'est pas le cas pour les principaux contaminants aériens; les émissions totales diminuent depuis 1990.


Par contre, lorsque l'on fouille de plus près, on se rend compte que l'agrégat cache des variations importantes selon la catégorie de l'émetteur de ces contaminants. Si on compare la variation des émissions de la catégorie 'Combustion non industrielle ' (qui comprend le chauffage au bois) a celle du transport (souvent blâmée pour tous les maux environnementaux nous affligeant), il est intéressant de constater les progrès importants faits, de 1990 a 2005, dans le domaine des Transports alors que le secteur de la combustion non industrielle voit ses émissions augmenter. En fait, "le nombre de logements dans lesquels on a recours au chauffage au bois a augmenté d’environ 60 % de 1987 à 2000. cette même période, l’augmentation du nombre de logements était de moins de 20 %" (MDEP).

Il y a plusieurs hypothèses qui peuvent expliquer que le marché n'est pas à lui-même produit une adoption naturelle de foyer plus efficace depuis l'arrivée de la norme EPA (la majorité des foyers à bois ne se conforment pas aux normes EPA), entre autres:

  • Le constructeur domiciliaire est bien souvent celui qui installe le foyer, mais son objectif est de minimiser le prix et ne sera pas celui bénéficiant du retour sur investissement à long terme

  • L'incitatif du retour sur investissement n'est pas assez grand pour que le consommateur en comprenne pleinement les avantages

  • Les consommateurs ne comprennent pas pleinement les risques associés à la pollution intérieure des habitations chauffées au bois avec un système non efficace. En fait, l'imagine traditionnelle est plutôt contraire; le feu de bois est associé au plein air et a la santé

Peu importe la raison, le fait est qu'il n'y ait pas d'indication d'un changement naturel de tendance à moyen terme. Ainsi, le projet de loi arrive à juste point.
À propos du point 5, "le lien le plus direct possible entre la cible visée et le moyen utilisé", c'est réussi: comme l'augmentation du chauffage au bois est la cause majeure de l'augmentation rapide de la production de contaminants de la combustion non industrielle, la mesure ne pourra qu'endiguer cette progression.


En terme de résultat à anticiper, je referre à cette étude de Statistiques Canada (2005):

http://www.ec.gc.ca/cleanair-airpur/909A7F9D-E381-42A3-BDB9-27A8DB5C4A00/Remplacement_poele_RWC_fran_26sept2005.pdf

Bien evalue les résultats du remplacement des poêles, foyers et foyers encastrés conventionnels par leur équivalent efficace sur le territoire entier du Canada, on peut probablement, sans trop se tromper, anticiper les résultats au Québec dans des proportions similaires (ci-bas).


(Remarquez toutefois que, selon les observations de l'étude, le chauffage au bois reste beaucoup plus polluant que le chauffage par tout autre type de combustible)

Ainsi donc, le ministère a bien fait son travail en proposant une réglementation qui viendra efficacement mitiger les effets négatifs d'une tendance lourde (la progression du chauffage au bois) sans s'aliéner les consommateurs.

Toutefois, pour augmenter son efficacité, la politique devrait être assortie de mesures incitatives pour la conversion des foyers à bois conventionnels existants.

Wednesday, April 16, 2008

Inflation targeting, U.S. vs Canada

Since 1991, Canada has had an inflation targeting policy. That is, by publicly providing direction as to a target inflation rate and "steering" it using monetary tools such as interest rates, the Bank of Canada is trying to stabilize inflation.

Since 1995, the target calls for 2% inflation and a bracket of 1% to 3%. There is no official inflation targeting process in effect in the Unites States. However, the central bank does make use of monetary tolls to "tweak" the economy over there as well.


Seems that a defined and predictable policy has worked pretty well for Canada since 1995 as far as its goal of stabilizing inflation is concerned.

To be noted: the inflation differentials for the period of Sept 2007 to March 2008, as well as the slope of each trend line.

L'optimisation d'inflation, perspective Canada-Etats-Unis

Depuis1991, le Canada a adopté une politique d'optimisation d'inflation. C'est-à-dire qu'en affichant publiquement un objectif de taux d'inflation à atteindre, et en "dirigeant" ce taux au moyen d'outils monétaires tels que les taux d'intérets, la Banque du Canada tente de stabilizer le taux d'inflation.

Depuis 1995, le taux visé est de 2%, dans une gamme de 1% à 3%. Les Etats-Unis n'ont pas de politique officielle d'optimisation d'inflation. Par contre, leur banque centrale utilise aussi ses outils monétaires pour "ajuster" son économie.

Il semble qu'une politique bien définie et prévisible ait connu de bons résultats au Canada depuis 1995, en temps que stabilisatrice du taux d'inflation.

A noter: le differentiel des taux d'inflations pour la période de Sept 2007 a Mars 2008, et la courbe des tendances respective de chaque pays.

Monday, March 17, 2008

Salaire médian et moyen au Canada, en 2005

I have been looking for the median individual income for a while and found it on CANSIM while doing some other research.

Je cherchais ces séries sur CANSIM depuis un bout de temps. Voici:




Source: Statistics Canada, Table 2020411 & 1110008

Thursday, February 07, 2008

Une récession en 2008?

S’il y a quelque chose qui m'interpelle depuis quelque temps, c'est la quantité d'information qui nous est disponible via tous les médias, incluant Internet. Le danger est ce que j'appellerais affectueusement la 'joe-connaisantisation' de l'information. C'est à dire, la perception que parce qu'ils ont accès à cette information, certaines personnes croient que ce qu'ils connaissent leur permet d'offrir des commentaires sur tout. Comme le disent les anglophones, "A Little Bit of Knowledge Is a Dangerous Thing" (Un petit peu de connaissance est une chose dangeurese). C'est-à-dire que posséder quelques connaissances sommaires peut nous donner l'illusion de comprendre un champ de connaissance particulier alors qu'il n'en est rien. Par contre, la confiance qui en est tirée amène souvent à l'erreur d'interprétation de par l'utilisation de raccourci intellectuel.

L'exemple en cause ici est cet article de Nathalie Elgrably dans le Journal de Québec.
Je vous invite à le lire ici :

http://www.iedm.org/main/show_editorials_fr.php?editorials_id=606

Regardons de plus près quelque unes de ses affirmations:

1. "même si les prix des maisons ont baissé, ils demeurent nettement supérieurs à ce qu’ils étaient il y a quatre ans". Vrai.

2. "On compare souvent la crise actuelle à la bulle internet de la fin des années 1990. Dans ce cas, soyons rassurés, car l’économie américaine a depuis créé plus de huit millions d’emplois, et a vu sa taille augmenter de presque 20%.". Vrai!

3. "Quant au taux de chômage, il est passé de 4,7% à 5% le mois dernier. Certes, il accuse une hausse, mais les mêmes analystes qui crient à la catastrophe aujourd’hui oublient qu’un taux de 5% était encore récemment associé au plein-emploi.". Toujours vrai!

4. "Non seulement les indices boursiers sont supérieurs à ce qu’ils étaient l’an dernier à pareille date, mais ils affichent une hausse de 80% depuis Octobre 2002." Encore vrai!

Si toutes ces affirmations sont vraies, quel est le problème alors? C'est là que le bât blesse et que l'analyse tombe à plat; Elgrably offre de bonnes réponses, mais aux mauvaises questions. La question est a savoir si l'économie américaine est en récession, et non pas si elle s'effondre et s'apprête à disparaitre (ce que, tous en conviendront, n'est pas le cas)!

Reprenons chaque point dans la perspective de voir quelle réponse Mme Elgrably nous offre:

1. "même si les prix des maisons ont baissé, ils demeurent nettement supérieurs à ce qu’ils étaient il y a quatre ans"
C'était aussi le cas pendant les récessions de 2001 et 1990. Réponse réelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

2. "On compare souvent la crise actuelle à la bulle internet de la fin des années 1990. Dans ce cas, soyons rassurés, car l’économie américaine a depuis créé plus de huit millions d’emplois, et a vu sa taille augmenter de presque 20%."
C'était aussi le cas pendant les récessions de 2001 et 1990. Entre chaque période de récession, il y a une période d'expansion plus importante. Réponse réelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

3. "Quant au taux de chômage, il est passé de 4,7% à 5% le mois dernier. Certes, il accuse une hausse, mais les mêmes analystes qui crient à la catastrophe aujourd’hui oublient qu’un taux de 5% était encore récemment associé au plein-emploi.":
Durant les récessions de 2001, 1969 et 1953, le taux de chômage était inférieur à 5%. Le taux absolu de chômage n'est pas un indicateur de récession. Réponse réelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

4. "Non seulement les indices boursiers sont supérieurs à ce qu’ils étaient l’an dernier à pareille date, mais ils affichent une hausse de 80% depuis Octobre 2002."
Ce fut vrai dans pratiquement tout les cas de récession depuis 50 ans! (L'indice Standards & Poors 500 a bondi de 127% de 1996 jusqu'à la récession de 2001, 95% de 1985
à la récession de 1990. Mieux? Au plus fort de ces récessions, l'augmentation du S&P 500 par rapport à 5 ans auparavant était de 90% et 55% respectivement). Ce commentaire ne fait que la preuve de la résilience du système capitaliste, mais n'a rien avoir avec le concept de récession. Réponseréelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

Si Nathalie Elgrably tentait de nous faire la démonstration que les États-Unis ne sont pas en situation de récession ou sur le point de l'être, c'est raté. Si elle désirait nous faire comprendre que les médias nous proposent des scénarios catastrophes, il aurait fallu nous offrir quelques exemples. La vaste majorité de ce que l'on peut voir dans les médias actuellement parle de récession. Pour le reste, j'ose croire que la vaste majorité de la population est déjà convaincue que l'Amérique n'est pas à l'aube d'une crise sans fin.

Mais encore faut-il pouvoir comprendre ce qu'est une récession et en identifier quelques signes avant-coureurs.

Voyons ce qu'en dit Mme Elgrably: "Pour pouvoir déclarer que l’économie est en récession, il faut que le PIB diminue pendant six mois consécutifs. Or, pas un seul mois de déclin n’a encore été enregistré."

Encore la, pas faux, mais pas vraiment instructif non plus. Voyons pourquoi. Pour bien comprendre, il faut s'en remettre au cycle de production des entreprises et la définition même de récession. Commençons par cette dernière.

Aux États-Unis, l'organisme qui est devenu l'arbitre de facto de la datation des récessions et le National Bureau of Economics research ou NBER (www.nber.org).

Voici ma traduction libre d'une partie de la Foire Aux Questions (FAQ) du NBER:
"Q: La presse financière cite souvent la définition stricte d'une récession comme étant deux trimestres consécutifs de déclin du PIB réel. Il y a-t-il un rapport avec le système de datation du NBER?
R: La pluspart des récessions identifiées par nos procédures ont en effet eux deux périodes consécutives ou plus de contraction du PIB, mais pas toutes. Par contre, notre procédure diffère de plusieurs façons. Premièrement, nous utilisons des indicateurs mensuels pour en arriver à une chronologie de datation mensuelle. Deuxièmement, nous utilisons des indicateurs qui sont sujets à revision moins fréquente. Il faut se rappeler que notre définition de récession inclue la mention "une décroissance significative de l'activité économique".

Q: Une récession n'est-elle pas une période d'activité économique réduite?
R: Il est plus exact de dire qu'une récession, de la façon dont l'on utilise le terme, est une période de réduction de l'activité économique, plutôt que réduite. Nous identifions un mois qui a vu l'économie atteindre un plateau d'activité et un autre mois où l'économie a atteint le niveau relatif le plus bas. La période qui les sépare est une récession; une période où l'économie se contracte. Ce qui suit est une période d'expansion. L'activité économique est sous la normale ou diminuée pendant une partie de la récession et pendant une partie de la période d'expansion. Certains qualifient cette période d'activité réduite un "slump".

Q: Que penser d'un taux de chômage croissant?
R: Le taux de chômage est généralement un indicateur tardif. Une croissance modeste du taux depuis un niveau déjà faible est compatible avec les données statistiques. Il faut être capable de filtrer les variations aléatoires et temporaires qui se produisent occasionnellement."

Le NBER propose une datation rétroactive des périodes de récession et ainsi, ne se prononce sur ces dates que bien après la fin des récessions. Pour la récession de 2001, le NBER a établi les dates d'entrée et de sortie en Juillet 2003.

Le NBER identifie les cycles économiques. Esseyons donc de comprendre le principe des cycles économiques de l'entreprise pour en comprendre les effets macro-économiques. Une entreprise ajuste sa production en fonction de la demande;
1. Une variation de la demande amene...
2. Un ajustement de la production. Si c'est à la baisse de façon significative, il y a réduction du personnel.
3. Chômage/baisse de production en agrégat/etc.

Il y a des signaux, des indicateurs qui sont mesurables durant toutes ces phases de contraction de l'activité économique. On ne parle de récession qu'a posteriori, une fois que la dernière phase est observée et quantifiée. Les indicateurs de récession de la dernière phase sont donc qualifiés d'indicateurs 'tardifs', alors que ceux de la première phase sont des indicateurs 'avancés'.

Puisque Mme Elgrably voulait nous convaincre de l'absence de raison de s'inquiéter d'une récession imminente ou existente, il aurait donc fallu porter notre attention sur les indicateurs avancés, soit la variation de la demande.

Analysons les signes émis par quelques-uns des indicateurs avancés les plus utilisés.
Tout d'abord, le "Purchasing Manager Index". Cet indice, publié par le 'Institute for Supply Management ', est constitué d'un ensemble de sous-indices qui couvre les champs suivants :
  • Niveau de production (.25)
  • Nouvelles commandes-clients (.30)
  • Livraison aux fournisseurs (.15)
  • Inventaires (.10)
  • Niveau d'emploi (.20)
Cet indice est établi par le biais de questionnaires envoyés directement aux entreprises chaque mois. Le graphique suivant détaille l'évolution de l'indice depuis 1948. Notez que j'ai fait la moyenne par trimestre pour réduire le nombre d'entrées. Tout mouvement sous la barre de 50 indique un ralentissement de l'activité économique.


Depuis 1948, il n'y a eu que 70 trimestres sur 236 (30%) ou la moyenne était sous le niveau de 50. De ceux-ci, 65% (46 sur 70) se trouvaient soit en période de récession (selon la datation du NBER), soit adjacente de moins de 6 mois d'une récession. L'indice n'est donc pas un prédicateur parfait d'une récession (il y a même eu des cas rares où l'indice était supérieur à 50 en période de récession). Par contre, lorsque combiné avec d'autres indices avancés, le PMI est un indice relativement efficace.
Comme l'indice fut en dessous de 50 pendant les deux derniers trimestres aux États-Unis, il semble indiquer,
à lui seul, une chance de 65% d'être soit en récession ou en sa proximité.

Un autre indicateur avancé de récession typiquement utilisé est le renversement de la courbe de rendement. De façon simple, la courbe de rendement désigne la représentation graphique ponctuelle des taux d'intérêt en fonction de leur durée. Typiquement, les taux d'intérêt
à court terme sont moins élevés que ceux à long terme. L'explication vient du fait de la tendance naturelle des investisseurs de préférer, à taux égaux, les liquidités. Ce qui est logique. Il y a donc prime à l'investissement à plus long terme pour rendre les instruments financier à long terme plus attrayant.
Lorsque la courbe de rendement s'inverse, ce qui se produit est que les investisseurs ont tellement peu confiance en l'économie
a court terme qu'ils préfèrent la valeur sure d'un investissement à plus long terme. La prime à l'investissement s'inverse et les taux à court terme deviennent élevés que ceux a long-terme.

Pour plus de détail, allez voir ce qu'en dit la Feds de New York :
http://www.newyorkfed.org/research/capital_markets/ycfaq.html

Dans le passé, une inversion de la courbe de rendement a régulièrement été suivie d'une récession. Cette dernière la suivant de 8 à 16 mois. En se servant de la courbe de rendement et d'une projection en avant de 12 mois, voici les prévisions de la Feds de New York (les zones grises représentent les récessions passées):

Encore une fois, pas de boule de cristal ici; il y a eu quelques pics dans le passé qui auraient pu nous faire croire à des récessions sans que ce soit le cas.

D'ailleurs, Bernard Bernanke et Alan Greenspan, respectivement président et ex-président de la feds américaine, ont tous deux exprimé des doutes sur la capacité contemporaine de prédictions des récessions de la courbe de rendement:

"In previous episodes when an inverted yield curve was followed by recession, the level of interest rates was quite high, consistent with considerable financial restraint," Bernanke said in a speech in March.
"This time, both short- and long-term interest rates -- in nominal and real terms -- are relatively low by historical standards."

"Although the slope of the yield curve remains an important financial indicator, it needs to be interpreted carefully. In particular, a flattening of the yield curve is a not a foolproof indicator of future weakness. For example, the yield curve narrowed sharply over the period 1992-1994 even as the economy was entering the longest sustained expansion of the postwar period." Alan Greenspan

Finalement, un dernier indicateur avancé sur lequel je voulais m'attarder est celui du Conference Board. Il recoupe en partie les indicateurs précédents et en fait une synthèse avec plusieurs autres, dont la durée moyenne d'une semaine de travail, la moyenne de réclamation de chômage, les nouveaux permis de construire, etc.

Cet indice est en baisse depuis maintenant 5 mois. (Voir les détails à http://www.conference-board.org/pdf_free/economics/bci/LEI0308.pdf)

L'indice du Conference Board a aussi ses critiques et a connu plusieurs ratés dans le passé. Par contre, tout observateur sérieux de la situation économique actuel ne peut que s'insurger face à l'affirmation suivante de Mme Elgrably:

"Toutefois, un ralentissement de la croissance américaine n’est pas exclu. C’est d’ailleurs ce qui se produit généralement après une période de croissance rapide comme celle enregistrée par nos voisins du sud depuis 2001. Mais affirmer que les États-Unis sont en récession relève carrément de la mauvaise foi."

En fait, la mauvaise foi serait d'ignorer qu'il y a nombre d'indices avancés signalant la possibilité bien réelle que l'économie américaine soit au début ou même au milieu d'une récession. À moins que l'on ait ici affaire à de l'incompétence, ou à un biais idéologique...

Mais, poussons plus loin l'analyse et voyons s'il n'y aurait pas quelques signes coïncidents ou même tardifs qui nous indiqueraient que nous sommes en fait en pleine récession.

L'indice présent de confiance des consommateurs du Conference Board, ci-bas, est en baisse marquée. Cet indice coindident est associé a des périodes de ralentissement de l'activité économique puisque la majorité du PIB américain est dérivé de la consommation personnelle.


Si on observe maintenant la variation du taux de chômage pendant cinq récessions.
(Portez une attention particulière sur la partie en jaune; la variation négative des emplois des secteurs non agricoles. La ligne en bleu représente le taux de chômage pour le mois de mars aux États-Unis)






Si on compare à la situation présente sur le graphique qui suit, on se doit de remarquer des similitudes; augmentation du taux de chômage de façon significative et perte d'emploi net pour les secteurs non agricoles. Tous deux des indicateurs tardifs de récession.


Pour ce qui est de la bourse; l'étalon dans le cas de récession est le S&P 500.

Pendant la récession de 1981, en rouge (une descente avec une remontée vers la fin de la récession):



Pendant la récession de 1990 (une descente avec une remontée vers le milieu de la récession):


Pendant la récession de 2001 (une descente amorcée avant la récession qui se poursuit bien après sa fin):

Et maintenant (la période en rouge couvre Janvier à Avril 2008):


En résumé, si tant d'économistes importants soutiennent que les États-Unis sont présentement en récession, ce n'est pas parce qu'il y a un facteur spécifique déterminant qui l'indique d'une façon irréfutable. C'est dû plûtot au fait qu'une accumulation d'indices avancés, coincidents et meme tardifs indiquent cette possibilité. Mme Elgrably aurait dû faire ses devoirs et l'indiquer ou, du moins, ne pas associer cette possibilité a de la mauvaise foi, ce qui n'est pas le cas. En tant qu'observateur "orienté-résultat", la position de Mme Elgrably est fort peu défendable. Même si, dans 6 mois, le NBER déclarait qu'il n'y a pas eu de véritable récession, les indices sont suffisamment importants pour en prendre acte.


P.S. En terminant, je voulais une fois de plus réfuter un mythe qui a la couenne dure:
"À 5% de chômage, c'est le plein emploi! Nous ne pouvons pas parler de récession!"
Une récession est un relatissement de l'activité économique, ça n'implique pas nécessairement un taux de chômage extrêmement élevé. Par exemple, la récession de 1953-54 débute avec un taux de chômage de 2.6% et se termine avec un taux de 5.9%. Celle de 2001 débute avec un taux de chômage de 4.3% et se termine avec un taux de 5.5%. Par opposition, les États-Unis ont connu des périodes où le chômage était plus élevé que maintenant sans être en récession. Ce qu'il faut plutôt observer, c'est une augmentation relative du taux de chômage. Il faut comprendre que ce taux est un indicateur tardif de récession; c'est à dire, les employeurs couperont dans les emplois une fois qu'ils peuvent observer que leurs commandes baissent.
P.P.S. Au cas ou on me signalerait que Nathalie Elgrably est économiste: elle n'est pas plus économiste que moi. Nous avons tous deux les memes diplomes. Mais je n'oserais jamais m'afficher comme économiste. Ca, ca serait de la mauvaise foi!

Lectures complémentaires:

http://www.newyorkfed.org/research/capital_markets/ycfaq.html
http://www.factset.com/websitefiles/PDFs/outlook/french/30-01-2008french.pdf
http://www.conference-board.org/pdf_free/economics/bci/BCI-Handbook.pdf
http://www.telegraph.co.uk/money/main.jhtml?xml=/money/2008/01/07/bcnuseco107.xml
http://www.cbc.ca/money/story/2008/01/08/merrilllynchrecession.html?ref=rss
http://www.financialpost.com/story.html?id=326071
http://www.reuters.com/article/ousiv/idUSN0747602120080407

Saturday, January 19, 2008

Le cout économique des politiques vertes

Il y a récemment eu beaucoup de bruit à propos des « coûts » reliés à l’implantation du protocole de Kyoto au Canada. Bien que je sois d’accord qu’atteindre l’objectif absolu de réduction de GES d’ici 2012 entrainerait des coûts exorbitants, on peut toujours se poser la question suivante; y a-t-il quoi que ce soit qui, économiquement, vaut la peine d’être fait?

Quand on y pense, ne serait-il pas extrêmement surprenant que la totalité des mesures possibles de réduction de CO2 ait une incidence négative sur l’économie? (C.-à-d. coûteraient plus cher que la valeur des bénéfices qu’elles apportent). Ne serait-il pas bénéfique d’essayer d’identifier les coûts associés à de telles mesures?

En fait, Vattenfal, une compagnie suédoise dans le domaine de la production d’énergie, s’est précisément attelée à cette tâche. Il semble que les résultats soient encourageants; plusieurs initiatives pourraient être mises en place à un coût économique négatif, tout en ayant des effets environnementaux bénéfiques. C'est-à-dire, dans le cas ou elles seraient adoptées, ces mesures augmenteraient la croissance économique.

Observez le graphique ci-bas (un « cost of abatement» négatif est indicatif d’une mesure qui non seulement réduirait les émissions de CO2, mais aurait des impacts économiques positifs)

Source: http://www.vattenfall.com/www/ccc/ccc/569512nextx/573859globa/574118cost/index.jsp


A la lumière de cette investigation, il me semble qu’une grande partie de l’opposition nord-américaine à la réduction des émissions de CO2 tient plus du discours idéologique borné à saveur non interventionniste plutôt que de s’en tenir à une analyse économique rationnelle. Pour l’esprit ‘basé résultat’, cette position est difficile à soutenir. Si les gouvernements, plutôt que d’en faire des débats idéologiques, considéraient les mesures proposées strictement d’un point de vue économique et accélérait le processus d’approbation sur cette base, n’aurions-nous pas une situation gagnante pour tous?

Le magazine The Economist avait ce qui suit à dire au sujet de la recherche de Vattenfal: (traduction libre):

"Les économistes préfèrent généralement éviter l’imposition de règle qui spécifie ce que les compagnies doivent produisent et comment elles doivent le faire, parce que l’allocation des ressources requiert alors une intervention des gouvernements plutôt que du marché, ce dernier étant plus efficace. Mais si, comme dans ce cas, le bien privé et public est en cause et que le marché ne semble pas faire son travail, il y a justification pour que le gouvernement lui donne un coup de pouce. » (The Economist, 2 juin 2007, Page 9)

Bien que je n’aie pu trouver d’article qui aurait reproduit les investigations de Vattenfall pour le Canada, voici une étude conjointe Conference Board/McKinsey qui offre les détails pertinents à l’économie américaine :

http://www.mckinsey.com/clientservice/ccsi/greenhousegas.asp



Ce qu’ils ont trouvé est surprenant : « 40 % des réductions identifiées pourraient générer des bénéfices nets pour l’économie ». Ils ajoutent : « Ces bénéfices peuvent, en grande mesure, compenser pour la presque totalité de la balance des coûts du capital, opération et maintenance ». Bien que cela constitue d’excellentes nouvelles en soit, je ne mettrai pas l’emphase sur cette dernière affirmation puisque certains pourraient arguer que l’argent épargné pourrait être investi ailleurs en attendant que l’on obtienne confirmation des « véritables impacts » du réchauffement planétaire (je laisse le travail au lecteur de déterminer la quantité de recherche supplémentaire nécessaire pour qu’elle soit considérée ‘suffisante’).

Sur la base des conclusions des rapports Vattenfall et McKinsey, il semble que, à court terme, un cadre législatif gouvernemental doit être proposé. Et puisque la plupart des mesures investiguées dans ces rapports et ayant des effets économiques positifs ont déjà été codifiées et standardisées (et les technologies sont disponibles aujourd’hui), comme l’efficacité dans l’éclairage, l’électronique, les véhicules routiers et la construction résidentielle, c’est maintenant le temps de rendre ces standards effectifs.

À quoi tout ceci pourrait bien ressembler en terme concret? Par exemple, ça pourrait impliquer le bannissement des produits électroniques non Energy Star, l’adoption de code de constructions immobilières plus strictes. Dans le marché automobile, on verrait l’imposition de standards de consommation d’essence plus sévère.

Par contre, plus que la volonté politique, je crois que ce qui manque le plus est que les idéologues prennent un peu de recul et se demandent a quoi ils s’opposent réellement…

Tuesday, January 08, 2008

La carte électorale du Québec doit etre réformée

Durant les dernières élections provinciales au Québec, quelque chose a piqué ma curiosité : on a vu plusieurs annonces et discussions publiques au sujet d'initiatives et politiques ciblant les « régions ». Ceci semble être un thème récurrent et un thème que j'ai beaucoup de difficulté à assimiler d'un point de vue économique.

D'un point de vue démographique, les régions rurales Quebecoises sont en déclin et depuis un bon bout de temps maintenant. Ci-bas, vous trouverez la représentation graphique des données du dernier recensement (2006) de Statistiques Canada.




Tel qu'indiqué dans le document titré « Population and Dwelling Counts » et comme c'est le cas pour les autres provinces, le Québec s'urbanise (ou, plutôt, se "banlieusardize"). Les agglomérations urbaines sont les centres majeurs de l'emploi, de l'immigration et de la croissance.

Lorsque j'ai cartographié ces variations de population en rapport avec leur district électoral, voici le résultat obtenu pour la période 1996-2005 (le vert représente un accroissement de la population, jaune est stable, et le rouge représente une décroissance) :



Pour en revenir à mon questionnement original sur les annonces gouvernementales de nouvelles infrastructures et autres investissements « créateurs d'emplois »; pourquoi ce phénomène se produit-il?

À première vue, il semblerait que les régions soient essentiellement surreprésentées politiquement par rapport à leur véritable poids démographique. Regardez les quelques exemples sur le tableau suivant :


Il est clair que, avec seulement 66 % de la taille moyenne des districts électoraux Quebecois, le Bas-Saint-Laurent, la Gaspésie et Iles-de-la-Madeleine obtiennent près de 40 % plus de représentation que ce que justifie leur population.

Cette surreprésentation cause un phénomène politique particulier; les régions deviennent les endroits parfaits pour investir des dollars de marketing électoral. Bien que ces régions furent les moteurs économiques du passé, il est maintenant moins évident que, dans une économie du savoir, elles puissent encore rester compétitives. Les ressources humaines qualifiées sont plus rares vu la non-proximité des universités, les infrastructures coutent plus cher à maintenir puisqu'elles servent un plus mince bassin de population, les synergies inter-compagnies sont moins évidentes, etc.

Bien entendu, il y a toujours des justifications importantes à vouloir exploiter les ressources naturelles qui se trouvent dans tous les coins du Québec. Mais le marché lui-même pourra s'en occuper lorsque les prix internationaux le dicteront.

Pour éviter de voir le gouvernement intervenir pour générer de l'emploi artificiellement la ou le marché et la population a deja parlé, il me semble logique de reformer la carte électorale pour refléter la vraie nature du Québec telle quelle est et telle qu'elle évolue en 2008. Cela implique une représentation politique des régions proportionnelle à leur poids démographique qui diminue.

Le changement sera aussi le bienvenue d'un point de vue démocratique.


Sources:
http://en.wikipedia.org/wiki/Quebec_general_election%2C_2007

La carte electorale vient du site Web "Affaires municipales et Régions Québec" (http://www.mamr.gouv.qc.ca), ou j'ai coloré les MRCs.

La premiere carte est une adaptation de: Statistics Canada, 2007, Population and Dwelling Counts - 2006 Census, Catalogue no. 97-550-XIE, page 43.

Electoral districts population from Directeur General Des Elections du Quebec (2007). Averages are the author's calculations.

Thursday, January 03, 2008

1% GST reduction, a mistake... which can be repaired

It was predictable; the Harper government announced that the 1% GST reduction would become effective as of January 2008. Even though this policy is widely regarded as less desirable than an equivalent income tax reduction, it would be hard to blame the Conservatives for it as it was one of their electoral pledges.

So, in the hope that the electorate will think about it twice before voting for such a policy next time, here is the most elegantly simple explanation that I could find. It is coming from Greg Mankiw, economics professor at Harvard University (http://www.blogger.com/profile/18161221774770492266)



« If we are looking at the decision to work today in order to consume today, consumption and income taxes have similar effects. Both discourage work effort.

Consider, however, another margin of adjustment: Work today in order to save and consume in the future. Let's continue with Daniel's example of a 50 percent tax rate. Suppose that the interest rate is 7 percent, so $1 saved today becomes $2 in 10 years.

With income tax: 1 hr work --> $16 pre-tax --> $8 post-tax --> $16 of savings in 10 years --->$4 more in income taxes on the interest--> $12 of chocolate cake, video games, and Red Sox tickets.

With consumption tax: 1 hr work --> $16 pre-tax --> $32 of savings in 10 years --> $16 of chocolate cake, video games, and Red Sox tickets + $16 of tax.

So under a consumption tax, there is a greater incentive to work and save today in order to consume in the future.

(...)

The bottom line: Both consumption taxes and income taxes discourage work, but income taxes discourage saving as well.»
Source : http://gregmankiw.blogspot.com/2006/06/consumption-vs-income-taxation.html


Worse, we are currently in a period of weak personal savings and of increasing consumption-related personal debt. If the U.S. should experience an economic slowdown in 2008 and a continuation of the liquidity crunch, the weak personal savings level in Canada would not allow consumers to reach for their "nest egg" to fuel further consumption. This, in return, would likely increase chances of an economic slowdown here as well.
Could something be done to correct this unfortunate policy decision of the current government?
Fortunately, yes. We would need Monique-Jerome Forget, Québec's finance minister, the integrate this 1% GST rebate to add it to Quebec's PST. For consumers, there would be no immediate impacts as prices of product sand services bought in Québec would not change.

This additional 1% would represent more than 1 billion dollars extra in Québec's budget. This would allow the option of either reduce the income taxes by the same amount or to invest it in the Generation Fund for the eventual purpose of debt reduction. Note that I did not even suggest that it could be used as part of the operational budget as I believe this would be an even greater mistake.

Some would argue that any tax reduction is good, wherever it is coming from. It is a view which lack, er... vision! In a stable and long-term perspective, Canada should progressively move towards income tax reduction and a raise of consumption taxes.

Now, I hear some object that consumption taxes are regressive and that its elimination improves the lot of the poorest among us. Well, in the short-term, maybe (although the GST is not applied to most of the basic consumption items). However, similar income tax progressiveness adjustments can be applied to consumption taxes.

The point is to be able to separate short term impacts (political, social and economical) from those, beneficial, that a sound fiscal policy will provide. For the result-based political observer, that is the bottom line and should be the goal in this specific case.

I'm leaving you with a few links to comments from various economists and other pundits on this topic:

http://worthwhile.typepad.com/worthwhile_canadian_initi/2007/10/the-federal-gov.html
http://www.cbc.ca/story/canadavotes2006/national/2005/12/01/gst-reac051201.html
http://globeinvestor.com/servlet/story/RTGAM.20071024.wgstt1024/GIStory/
http://www.asdeq.org/activites/comite-politiques-publiques/pdf/2007/reduction_de_la_tps.pdf

Wednesday, January 02, 2008

Baisse de TPS de 1%, une erreur... réparable.

C’était à prévoir; le gouvernement Harper a annoncé que la réduction de 1 % de TPS sera effective à partir du 1er janvier 2008. Malgré le fait que cette politique soit économiquement moins préférable qu’une baisse d’impôt équivalente, il est difficile d’en blâmer les Conservateurs puisque c’était une promesse électorale.

Donc, en espérant que l’électorat y pense un peu plus longuement la prochaine fois, voici l’explication la plus simple que j’ai pu trouver. Elle nous vient du prof d’économie EC10 de l'Université de Harvard, Greg Mankiw (http://www.blogger.com/profile/18161221774770492266).

(Ma traduction):
« Si nous considérons la décision de travailler aujourd’hui pour consommer le jour même, une taxe à la consommation est essentiellement équivalente à un impôt sur le revenu.

Par contre, si l’on considère un scénario légèrement différent : travailler aujourd’hui pour consommer plus tard. Si on prend l’exemple suivant, en assumant un salaire horaire de $16, un niveau de taxation de 50 % et un taux d’intérêt à 7 % ou $1 épargné aujourd’hui atteindra $2 dans 10 ans.

Avec une taxe sur le revenu : 1 heure de travail donne $16, auquel 50 % d’impôts sont prélevé. Ce qui nous laisse $8. En l’investissant pendant 10 ans, $4 de plus seront perçus sur le gain en capital, laissant un montant total net pour la consommation de $12.

Avec une taxe a la consommation : 1 heure de travail donne toujours $16 et comme il n’y a plus d’impôt sur le revenu, notre $16 investi sur 10 ans nous laissera un montant total de $32. De ce montant, $16 (50 %) iront a la consommation et $16 pour payer la taxe.

Donc, avec une taxe à la consommation, l’incitatif est plus grand pour économiser pour la consommation future.

Finalement, si les deux types de taxation découragent le travail également, les impôts sur le revenu ont l’effet additionnel de décourager l’économie. »


Source : http://gregmankiw.blogspot.com/2006/06/consumption-vs-income-taxation.html

Pire, nous sommes actuellement dans une période de très faible niveau d’économie personnelle, et d’endettement croissant. S’il y avait un ralentissement économique aux États-Unis en 2008 et une continuation de la crise des liquidités, le faible niveau d’économie personnelle canadienne ne permettrait pas aux consommateurs d’aller chercher d’argent dans leur « bas de laine » pour consommer, ce qui augmente les chances d’un ralentissement ici aussi.


Y aurait-il quelque chose à faire pour corriger cette politique malencontreuse du gouvernement actuel?
Heureusement oui. Il faudrait que la ministre Monique-Jerome Forget récupère immédiatement ce 1 % de TPS et l’ajoute à la TVQ. Pour le consommateur, l’effet net immédiat serait nul; les produits et services achetés aux Québec ne seraient pas plus chers.

Ce 1 % représenterait plus d’un milliard de dollars de plus dans le budget du Québec. Ce qui offre l’option de réduire l’équivalent en impôts aux Quebecois ou de l’investir dans le fond des générations pour une réduction éventuelle de la dette. Notez que je n’ai même pas suggéré son utilisation pour les dépenses courantes du gouvernement, ce qui serait une erreur à mon avis.

Certains argueront qu’une réduction du fardeau fiscale, peu importe sa provenance, est la bienvenue. C’est une vision à trop court terme. Dans une perspective stable et à long terme, le Canada devrait se diriger vers une diminution de l’impôt et une augmentation des taxes a la consommation.

J’entends aussi certain m’affirmer qu’une taxe a la consommation est régressive et que son élimination améliore le sort des plus pauvres. À court terme, peut-être (bien que la TPS ne s’applique pas sur les produits de consommation de base). Mais les mêmes ajustements qui existent pour l’impôt peuvent s’appliquer pour les taxes à la consommation.

L’idée est de séparer les effets à court terme (politique, sociaux et économiques) de ceux, bénéfiques, a long terme. Ce devrait être, dans le cas présent, l’objectif de l’observateur politique à la recherche de résultats.

En fin, je vous laisse avec quelques commentaires variés d’économistes, de fiscalistes et autres intervenants à ce sujet:

http://worthwhile.typepad.com/worthwhile_canadian_initi/2007/10/the-federal-gov.html

http://www.cbc.ca/story/canadavotes2006/national/2005/12/01/gst-reac051201.html

http://globeinvestor.com/servlet/story/RTGAM.20071024.wgstt1024/GIStory/


http://www.asdeq.org/activites/comite-politiques-publiques/pdf/2007/reduction_de_la_tps.pdf