Tuesday, December 27, 2011

Border crossing efficiency

Winner: Hong Kong


One has to to live in Hong Kong for just a short while to realize how efficient the city is. Actually, for a resident with an ID card, they are reminded of that fact every time they leave or come back to Hong Kong; crossing the borders take at most 2 minutes.


The Hong Kong ID card, which every resident must have, has a chip which seemingly has some of your biometrics, such as your thumbprints. There are no documents to fill-up at the customs. You spot the e-Channel booths and go. Each booth has two sets of doors. To open the first set of doors, you just enter your ID card in the outside slot. The system will scan your card and open the doors when approved. Once inside, the doors behind you close and you must apply one of your thumbs to the thumb scanner which will recognize your identity and open the doors to the other side.
The whole procedure takes about 20 seconds. Then, you collect your luggage and just go out through the 'Nothing to Declare" section. No signature required, no paperwork to fill-out or handout unless you do have something to declare.

In Montreal (or anywhere in Canada for that matter), one has to lineup behind tens of people (if you are flying on a 500  passenger A380, you will wait) to show your travel document to the custom officer who will take a minimum of 30 seconds stamping this and that, checking for this or that. If you had the lineup-time, it can be anywhere between 1 minute and an hour. But that is not all, you must have filled the arrival card which, 99% of the time, just states that you are not bringing guns/goods/diseases/plants/etc and that you have nothing to declare. All of this so you can hand it out to another person who just collects those papers.

I can't, for the life of me, understand how we still have such archaic border crossing system in Canada. Why would 99% of the people have to fill and sign the declaration form if 99% have nothing to declare. It makes no sense at all. Sure, Hong Kong is a free port but that doesn't change anything; the system is one of self-declaration either way so why the inefficiencies?
The Hong Kong system provides a faster, more scalable, more pleasant, less intrusive and, most likely, much cheaper system (all the customs agents have to be paid, and my guess would be that you need 10 times less agents in the HK system)

Sunday, October 30, 2011

Car ads on TV.

During my last trip to Montreal, something that strike me and made me wonder:

There are a huge amount of car ads on TV in Montreal and I can't remember ever seeing a single one in Hong Kong, be it on English or Cantonese stations.

Thursday, April 15, 2010

Health care comparisions statistics: On the dangers of jumping to conclusions

I have been wanting to write an entry about this for a few years actually but just couldn't find the time. Now that I have had the time to spend digging into the data, I'm quite happy that I did because my initial gut feeling about what was reported was actually right; it is often necessary to dig deeper into research and really try to understand what the information that is presented to us really means.

Have a read:

New York Times, November 4, 2007
ECONOMIC VIEW
Beyond Those Health Care Numbers
(www.nytimes.com/2007/11/04/business/04view.html)
By N. GREGORY MANKIW
“STATEMENT 1 The United States has lower life expectancy and higher infant mortality than Canada, which has national health insurance.
The differences between the neighbors are indeed significant. Life expectancy at birth is 2.6 years greater for Canadian men than for American men, and 2.3 years greater for
Canadian women than American women. Infant mortality in the United States is 6.8 per 1,000 live births, versus 5.3 in Canada.
These facts are often taken as evidence for the inadequacy of the American health system. But a recent study by June and Dave O’Neill, economists at Baruch College, from which
these numbers come, shows that the difference in health outcomes has more to do with broader social forces.
For example, Americans are more likely than Canadians to die by accident or by homicide. For men in their 20s, mortality rates are more than 50 percent higher in the United States than in Canada, but the O’Neills show that accidents and homicides account for most of that gap. Maybe these differences have lessons for traffic laws and gun control, but they teach us nothing about our system of health care.”

If you read these paragraphs without thinking about it too much, what do you take from it? Essentially that a very large part of the difference in mortality rates between the U.S. and Canada is due to accidents and homicides, isn't it? Well, if you do, then you would have been misled. Not that I believe that is was intentional but rather, the author has written the piece in such a way that readers can easily overlook what is bone-fide information, and what is undue extrapolation.

The O’Neill report merely points out two factors as evidence that using life expectancy is not the best tool to compare both systems:
Life expectancy shares similar problems as a measure of a country’s quality of health care. It is influenced by infant mortality and at older ages and does not delineate between causes of death susceptible to improved medical treatment ad those that are not (deaths from homicide, auto and other accidents).” (O'NEILL, 2007, p7)
That is the main point, and the accidents/homicides is merely an example of how the life expectancy statistics is the not a great tool to be used as a comparator of medical system outcomes.
Actually, once one reads Mr. Mankiw’s carefully, the conclusion is that “The bottom line is that many statistics on health outcomes say little about our system of health care”. But in the process, he highlights facts that lead the reader towards the wrong logical path.

What bothered me is that the O'Neill report got quoted in a few blogs as evidence that most of the gap between life expectancy in the U.S. and Canada is due to accidents and homicides (or, in a broader sense, all non-medical events causing death). But beyond the fact that the report doesn't say that at all, I thought it would be worth taking some time to dig into the data that the O'Neills are using to see if I can start from where they left off and see if the non-medical events can explain the large mortality gap.


(Note: Click on the charts to get larger/readable versions)
Table 4 (above) is the principal data piece in the O'Neill report which shows evidence that at least a portion of the gap has a non-medical cause.
Something that peeked my curiosity is the fact that the chart didn't show the weight of each age-group in the overall mortality numbers. Because, obviously, as the non-medical deaths happen at a younger age, they would significantly drag average death years down, but only if the number of non-medical death relative to the total number of deaths is high. The data actually shows us that it isn't.


The next two charts were constructed by me based on the same data the O'Neill used. The first chart contains data for Canada and the second, for the U.S.

The age groups are on the left hand side. The 'Age group used for average' is the age used for computation of the overall average age of death (see my notes for additional details).
Next column lists the total population in each age group. Note that this column is there for your reference only as I do not use it for any calculations. The other columns are self-explanatory. The 'Unadjusted age total' is simply the number of death in the age group times age group age used for average, used for the sake of final average computation. The 'adjusted Nb of death' and 'adjusted age' remove the non-medical events to compute an 'adjusted average death age'.

With a more detailed chart such as this one, it is quite easy to see that although accidents might explain a large portion of the gap for the 20-40 age group, the proportion of those death relative to the total number of deaths is minimal, and therefore has not as great an impact of average age of death as one could be led to believe based on Table 4.

But, by how much does it really impact the average age of death?
Including all causes of death
, I arrive at an average age of death of 72.29 years for the U.S. If we exclude all non-medical causes of death and re-calculate the average age of death, this number is now 74.17 years. The gain is therefore 1.88 years. This is quite significant. It means that if the U.S. could have figured a way to avoid all non-medical fatalities in 2004, the average age of death could have been 1.88 years higher.

Doing the same calculation for Canada, I arrive at 74.15 years pre-adjustment, and 75.46 years with the non-medical causes removed. The gain here is 1.31 years.

Therefore, the 1.86 years delta between the U.S. and Canada unadjusted average death years, falls down to 1.29 years once all non-medical causes have been removed from the data.
This essentially suggests that 31%, or one-third of the difference between the average age of death in Canada versus the U.S. can be explained by non-medical events. Quite significant but not quite sufficient to state that non-medical events explain why there's such a large gap in life expectancy between the two countries.

The O'Neill study also hints that higher obesity in the U.S. might explain the remainder of the difference. In their study, O'Neill used the 'diseases of heart' (table 4) from the data to show that they were a significant percentage of the gap in the older age groups.

However, when I remove the 'Diseases of heart' from my adjusted average age of death calculations (in addition to removing the non-medical causes), I obtain the following interesting data: the non adjusted U.S vs Canada still remains 1.86 years (obviously) but the adjusted age is now 1.65 years, a difference of just 11%.

To me, this highlights the danger of drawing conclusions based on multi-variable inputs; in this case, while obesity is undeniably a factor in the prevalence of heart conditions, it also will impact other diseases. But the health system can also have impacts on obesity through prevention and education. In fact, I'm sure we could find a thousand ways how to either use the medical mortality data to have stats say one thing or another. There are many variables interacting which can be hard to isolate and therefore, it makes any conclusion hazardous, while in the case of non-medical events, it is quite clear-cut: the deaths occurred outside of the system altogether.

Now, one last thing. Since the matter of infant mortality has also been brought up in the report, let's see what my model says about this: If we remove infant deaths and non-medical deaths? (by completely removing all 0-1 age group deaths in both Canada and the U.S.), the unadjusted death death delta (Canada minus U.S.) is 1.5979. The adjusted delta is 1.055, or, a reduction of the Canada/U.S. mortality delta of 34%
A large chunk for sure, but still not the cause. Again here, the reason is that the total number of death in the 0-1 age group is not large enough as a proportion of total death to have a truly game-changing impact on the results.

In conclusion, I would say that for the same reason that using 'Diseases of heart' as a tool to explain the differences in health outcome between the U.S. and Canada, using the life expectancy as the sole indicator and evidence of the 'superiority' of the Canadian system is very risky. However, the point of this blog entry was to dispel the myth that the higher rates of accidents and homicides in the U.S. could explain the large gap in mortality rates. The 2004 data referenced by the O'Neill report actually doesn't support that assertion. Nor does it support the assertion that 'infant mortality' nor 'Diseases of the heart' account for all of the gap. What the O'Neill report says is that the life expectancy statistics are an inadequate tool to compare systems. But although life expectancy is a weak measure of comparison of health care system, the large mortality gap between the U.S. and Canada that remains, even once adjusted to remove non-medical events, certainly highlights the need to identify the causes of this gap.

While the data cannot provide evidence that the health delivery system is the cause, the 2004 data also cannot exclude this explanation.

Notes:
  • 94 was used for the 90+ average as it is roughly the calculated median age of death based on the 90+ population mortality figures. From mortfinal2004_worktableipt1.pdf, the U.S. figures were: 90-94 years...... 227,661. 95-99 years...... 87,446. 100 years & over. 18,526. I tried some other figures to make sure I wasn't introducing too much of a bias but varying this figure had little impact on the results.
  • 0.1 has been used for the '0-1 year' mortality population as opposed to the average which would be 0.5 as most infant mortality happens at birth. 0.1 seems good enough a proxy. The percentage of total death attributable to that age group is relatively small (1.2%) which indicates that changing the average age group figure will not have a significant impact on the results.
  • As the U.S. data was not readily consumable as the Canadian one's, I had to merge from multiple files to get the absolute mortality numbers and therefore, some absolute numbers are reconstituted from rates. They are highlighted in grey in the charts. The error margin this process introduces is not significant.
  • The areas highlighted in cyan are reconstituted by totaling their table sub-components as the consolidated number was not available. However, some tables were not available from the US data. To assess the significance of those missing data pieces, I totaled the sub-components for the consolidated number where data was available to the reconstituted one with some tables missing. The difference was less than 0.25% and I therefore concluded that the partial figures were within a reasonable error margin.
  • Discrepancies between my age figures and official life expectancy ones are due to the fact that my numbers are not actuarial life expectancy figures but rather, figures derived from death events and therefore, do not represent the life expectancy at birth of an individual born in 2004 but rather, the average lifespan of individuals in 2004.

List of sources:
  • CDC/NCHS, National Vital Statistics System: LCWK1. Deaths, percent of total deaths, and death rates for the 15 leading causes of death in 5-year age groups, by race and sex: United States, 2004
  • Worktable I. Deaths from each cause, by 5-year age groups, race, and sex: United States, 2004
  • http://www.cdc.gov/nchs/nvss/mortality/gmwki.htm
  • http://www.cdc.gov/nchs/nvss/mortality_tables.htm
  • http://www.cdc.gov/nchs/data_access/Vitalstatsonline.htm
  • Statistics Canada, Catalogue 84F0209XIE, "Mortality, Summary List of Causes", 2004. (Stats used start at page 64 in the PDF file)
  • HEALTH STATUS, HEALTH CARE AND INEQUALITY:CANADA VS. THE U.S., NBER Working Paper 13429, June E. O'Neill and Dave M. O'Neill, 2007

-->

Thursday, May 28, 2009

Yield curve correlation with overnight rate

Here is the calculated correlation between the U.S.' overnight rate and the interest rate yield spread. From 1960 to now.



The R-Square is the correlation coefficient between X ('the overnight rate') and Y ('the yield spread'). In this case, 0.25. Or, in layman's term: '25% of the variation of the yield spread can be attributed to the variation of the overnight rate. All-in-all not surprising (actually, I'm a bit surprised it is not more than that) since the overnight rate affects one of the two ends of the yield curve, and therefore, obviously has a short term impact on the curve itself.


Data sources:
http://www.newyorkfed.org/research/capital_markets/ycfaq.html
Board of Governors of the Federal Reserve System, H.15 Selected Interest Rates


Sunday, January 25, 2009

The 2008 U.S. recession's underlying cause.

Just a few years back, when I was working on my MBA at Queen's, we got into a few discussions with our Finance professor about some new instruments that were now available to corporations. Namely, the securitization of risks associated with sub-prime mortgages.

I will let here Dr Louis Gagnon, professor at my Alma Mater (Queen's University in Kingston, Ontario), describe the principle:

"Under this new business model, prospective home owners with no cash to spare and no confirmed income stream would be lured into the pipeline, with adjustable rate mortgages (ARM) serving as bait, by an army of slick mortgage brokers, the first fee-takers in the chain. Then, the mortgages would be put into a big pool and securitized by an investment bank, for a fee. This process would involve the establishment of a special-purpose entity (SPE), some sort of trust that is “technically” independent of the parent, to purchase the assets from the pool. More fees! This would insulate the parent from the usual regulatory capital charges applying to plain vanilla loans. Regulatory capital arbitrage! The purchase would be financed by selling the income stream from the pool in the form of CDO tranches to a bunch of investors, the hedge fund kind as well as the naive kind. This way, each slice would carry a different likelihood of income shortfall and be given a tranche-specific credit rating (more fees!), which would appeal to a broad pool of investors. Add credit enhancement by the monolines (Ambac, MBIA, etc.) and credit protection insurance by the likes of AIG and you’ve got the ideal asset class for the risk-averse, yet yield-hungry, institutional investor.
This was a vast money machine. Wall Street went at it with a vengeance and the fees were coming in by the truckloads. Even some of our venerable Canadian banks got into the game, albeit with much more restraint than their American and European counterparts. In the boom years of 2005 and 2006, more than half of all the mortgage-backed CDOs coming off the pipeline rested on subprime or second-lien mortgages. "

(src: http://network.nationalpost.com/np/blogs/fpcomment/archive/2008/09/25/fees-and-leverage.aspx)

We were in 2006 and then, everything was peachy in the stock and real-estate market. Despite this, many economists and financial analyst were worried about those new instruments. The reason being that the real risks of those investments had been "removed" from the investments themselves and pushed to others. The prudence incentive now removed, banks are then more than willing to lend whereas they wouldn't have been before.

I will let you read the full article by Mr. Gagnon:
http://network.nationalpost.com/np/blogs/fpcomment/archive/2008/09/25/fees-and-leverage.aspx

I fully agree with him that although Freddie Mac and Fannie Mae had their responsibilities in this debacle, they are mostly scapegoats in identifying the true underlying problem; yes the governments in place (both Democrats and Republicans) made access to property far too easy (and therefore, risky in slowdowns)... Sure, the feds could have been less aggressive in setting their target rates. However, while these created the pre-conditions for the storm, something needed to be in place to short-circuit the self-regulating market mechanisms for so long. It is my belief that removing the prudence incentive from the people who should have been prudent (i.e. the bankers) and instead, giving them the opposite incentive (the more miscalculated risks they took, the more rewards they got), it elevated the economic boiling point and made the consequences more dire.

Would increased regulation help? I don't believe so. The question is; regulate what? These new schemes were but one set of clever ways to increase short term profits; legislating to prevent those could prevent further occurrences of the same schemes, but would it be efficient? I believe that in that specific case, the lesson has been learnt. And, in the future, there will be newer schemes invented that legislators cannot even begin to imagine. Are they going to preemptively legislate on potential dangers and market-failures? That would be highly inefficient.

Doesn't it all really boil down to, as Mr. Gagnon suggest, going back to basics of common sense and discipline? i.e. there's no such thing as a free lunch and it it looks too good to be true (i.e. all the benefits, none of the risks), it probably is?
Any good manager, at whatever level he or she operates, should ask himself; what are the incentives? What are they rewarding? And is where are the risks?
The failure to answer those questions in a time when it seemed than anyone could just go out and print money was, I believe, the core of the problem. Everything else was peripheral. Which will make both the anti-market pundits (predicting the end of the capitalist system) and libertarians (predicting a huge collapse of the dollar, and hyper-inflation) wrong when the markets do recover at the end of 2009 or through 2010.

I also believe that the market is not a theoretical abstraction; it is a real, living, evolving process and, since it involves transactions between sentient beings, it also inherits their learning abilities and their memories. Therefore, by the simple fact that the 2008 crisis happened, the market is now a different beast than what it was a year ago. Regulations could help make us feel better but would do little to prevent future crisis.

Friday, June 06, 2008

Le crime au Canada depuis 30 ans; l'analyse doctrinaire vs rationelle

http://www.aei.org/publications/pubID.23633,filter.all/pub_detail.asp

Lisez ce texte savoureux de David Frum, le joyeux illuminé a qui l'on doit le terme "axis of evil" (l'axe du mal) faisant référence à l'Iraq, l'Iran et la Corée du Nord (il écrivait les textes de George W. Bush).

À premier abord, ça fait sursauter. Malheureusement, la réaction provoquée serait bien mauvaise conseillère si le but était de définir un nouveau cadre législatif ou même de préparer un plan d'action contre le crime. Parce que monsieur Frum avait déjà un biais avant d'écrire son article; celui de dire que les politiques laxes du gouvernement Libéral en place en matière de criminalité ont fait progresser le crime au Canada alors que les politiques dures des É.-U. auraient résulté en une baisse significative du crime.

L'observateur orienté résultat lui, se doit :
- d'aller au fond des choses sans prendre de raccourci, pour obtenir une véritable perspective de la situation
- ne pas se laisser influencer par son billet naturel
- accepter les indications que lui donnent les chiffres sans jugement hâtif
- accepter que toute l'information ne soit pas toujours disponible
- accepter les résultats même s’ils sont contraires a l'hypothèse de départ
- développer des solutions politiques basées sur les succès obtenus, les 'best practices'

Alors que la Cour suprême américaine vient de renverser l’interdiction de porter une arme à feu à Washington DC, il est important d’approfondir ses recherches au-delà de la perception initiale. Dans un océan de données, il est relativement facile de trouver une information ou une autre qui concordera avec la perception que l’on veut bien avoir de la réalité plutôt qu’à la réalité elle-même.

Cet événement me donne l’occasion de répondre finalement à cet article de David Frum (Publié dans le Financial Post du 3 janvier 2006) auquel je n’avais pas eu le temps de compiler toutes les informations nécessaires pour formuler une réponse qui me satisfaisait au niveau de la recherche statistique.

Les éléments statistiques énoncés par Mr. Frum ont déjà bien été mis en pieces par Chris Selley
(http://www.tartcider.com/blog/archives/2006/01/crime_and_embel.html) et Dan Gardner du Ottawa Citizen (http://www.dangardner.ca/Colfeb1506.html). Je n’y reviendrai que pour rétablir les faits, en Français cette fois-ci, et clarifier certains détails avec utilisation de graphiques.

Comparer ce qui est comparable

M. Frum compare directement les statistiques du FBI et de Statistiques Canada. Ce qui ne peut se faire directement. Dans l’étude de Statistiques Canada titrée « Feasibility Study on Crime Comparisons Between Canada and the United States » (Catalogue Statistiques Canada no. 85F0035XIE), on apprend que les taux associés au crimes violents ne peuvent être comparés directement, mais que certaines de ses composantes peuvent l’être. Ainsi, lorsqu’on reconstitue le taux de crime violent selon les instructions de l’étude, on obtient :

Bien que j’aie une grande confiance en Statistiques Canada, j’ai toutefois fouillé le Web pour m’assurer de la validité de ces comparatifs.

Certains blogs référaient à l’étude « INTERNATIONAL COMPARISONS OF RECORDED VIOLENT CRIME RATES » de Tanya Segessenmann du Ministère de la Justice de la Nouvelle-Zélande, complété en l’an 2000. Malgré que cette étude ne compare pas chaque pays entre eux, mais plutôt chacun d’eux à la Nouvelle-Zélande, ce que j’ai fait est de rapporter ces comparaisons sur la même échelle en utilisant la Nouvelle-Zélande comme référence avec une valeur de 1. Voici les résultats pour les crimes violents, rapportés à la même échelle (année 2000) :



Le ratio É.-U./CAN, essentiellement le même que celui dérivé de l’étude de Statistique Canada, vient renforcer la validité de cette dernière.


Une autre étude, des États-Unis celle la, titrée « Cross-National Studies in Crime and Justice » (2004, édité par David P. Farrington, Patrick A. Langan, et Michael Tonry du U.S. Department of Justice), arrive aux mêmes conclusions que l’étude de Statistiques Canada. Détails en Page 137.


Avec ces points de comparaisons plus fiables, il est possible de faire une analyse plus éclairée. Par contre, il ne faut pas se leurrer et comme le note tous les organismes de collection statistique, il y a de nombreux autres facteurs qui entre en ligne de compte et influence ces taux, tel que les délais entre le moment ou un crime est commis versus rapporté, la diligence et la consistance des autorités dans l’exercice de collection des données, etc. Ainsi, il faut toujours garder en tête qu’il y a une marge d’erreur explicite et/ou implicite à tout énoncé statistique.

Analyser la situation

À première vue, ce qui m’apparait digne d’intérêt, c’est l’augmentation suivie de la baisse foudroyante des crimes violents aux États-Unis, la tendance à la hausse au Canada et au Québec depuis 2000 et la similitude des deux courbes.

Les tendances des composantes du taux de crimes violents se décomposent ainsi :




Si la tendance des composantes de crimes violents aux États-Unis suit une courbe similaire à son agrégat, la situation est très différente au Canada, ce qui m’a poussé à continuer à approfondir les tendances au niveau provincial, ce qui donne :








“One size fits all” ne s’applique pas au Canada. Le Québec, la Saskatchewan et l’Alberta doivent mettre l’emphase à comprendre et lutter contre les causes de la croissance fulgurante des assauts. La plupart des provinces devraient pour leur part essayer de comprendre le succès du Québec à lutter contre le vol depuis 1983. Pour une raison de limite de temps, je ne peux aller dans les détails de chaque province, mais je suis presque certain qu’on y trouverait aussi des différences significatives au niveau des sous-régions et des villes.


Dans son article, David Frum affirmait que la baisse fulgurante des crimes violents aux États-Unis démontrait bien que de mettre les gens en prison était efficace. En traçant le taux d’homicides vs le taux d’incarcérations (ci-bas), on voit bien qu’il n’y a pas de corrélation évidente (J’ai choisi le taux d’homicide puisque cette donnée était disponible de façon continuelle depuis 1925).




Mr Frum affirme aussi qu’il est maintenant plus probable de se faire attaquer a Toronto qu’a New York… ce que je vous laisse juger par vous-même avec les données suivantes, toujours en utilisant des statistiques comparables :






Je n’ai rien en tant que tel contre les politiques socialement conservatrices de Mr Frum mais les données ne supportent tout simplement pas ses affirmations.

Ce que l’on peut affirmer avec un degré de confiance raisonnable (en utilisant des critères comparables entre les É.-U. et le Canada):

  • Le taux de crime violent au Canada est en augmentation depuis huit ans
  • La composante de crime violent la plus inquiétante est l’assaut, qui est en augmentation presque constante depuis plus de 30 ans
  • Après avoir grandement augmenté pendant les années ‘80s, le taux de crime violent aux É.-U. a connu une décroissance fulgurante depuis 1993
  • Le taux de crime violent du Canada est d’environ la moitié de celui des États-Unis
  • Les grandes villes Canadiennes ont un taux de crime violent environ le tiers de celui des grandes villes américaines.
  • Les données statistiques américaines ne supportent pas l’affirmation qu’envoyer les gens en prison réduit le taux d’homicide.


Pistes d’explications et offres de politiques

Tenter d’identifier les causes qui sous-tendent la criminalité violente est une affaire complexe et je ne voudrais pas prétendre avoir des réponses alors que la criminalité n’est pas mon champ de travail. Par contre, les études consultées et les statistiques nous permettent tout de même de faire quelques constats :

  1. S’il est difficile de proposer des solutions en garantissant des résultats bénéfiques, il est toutefois plus simple d’éliminer les approches de lutte au crime qui ne fonctionnent pas; par exemple, l’incarcération est une méthode qui, seule, n’a pas fait ses preuves.
  2. Réduire la lutte au crime à une seule approche est simpliste

La jeunesse comme facteur aggravant :





Au Canada, il y a forte corrélation entre le taux de meurtre et la proportion de la population en âge de 18 à 31 ans. C'est-à-dire que le pourcentage de la population entre 18 et 31 ans contribue à 76.8% à la variation du taux de meurtre au Canada. Bien entendu, corrélation n’est pas causalité.

Cette connaissance apporte un outil précieux pour définir des politiques sociales et policières visant à cibler ce groupe d’âge puisque les grandes variations de taux de criminalité violente deviennent prévisibles statistiquement.

Les criminels semblent réagir aux incitatifs directs et immédiats :

Bien que les causes de la réduction de la criminalité à New York soient toujours débattues (http://query.nytimes.com/gst/fullpage.html?res=9E03E3D61238F93AA15752C1A9649C8B63), plusieurs attribuent ce « miracle » à trois phénomènes; l’augmentation importante des forces policières et la « police intelligence », c’est-à-dire l’automatisation des processus de lutte au crime, ainsi que l’utilisation de pratiques nouvelles telle que le « fixing broken window » (http://en.wikipedia.org/wiki/Fixing_Broken_Windows).

Bien que ce soit encore à prouver, il me semble logique que les criminels n’agissent pas vraiment différemment du reste de la population face aux incitatifs auxquels ils font face. Par exemple, si un criminel a l’opportunité de commettre un méfait, mais qu’il sait qu’il se fera prendre dans 100% des cas, il aura moins tendance à passer aux actes même si sa peine de prison potentielle est faible. Par opposition, même avec l’imposition d’une peine minimale de plusieurs années de prison, un criminel aura peu d’incitatifs immédiats à ne pas commettre de crime s’il perçoit que ses chances de se faire prendre soient faibles.

Au niveau de la définition de politique de lutte au crime, ceci indique que l’on devrait privilégier l’investissement dans les ressources policières plutôt que carcérales, et éviter d’allonger inutilement les sentences. Donner les moyens aux forces policières et à la population en général de mesurer les résultats des initiatives prises me semble aussi un point essentiel, permettant ainsi d’éliminer les mesures non efficaces et de bonifier celles qui le sont.


La disponibilité des armes de poing

Mes recherches tendent à me faire croire qu’il y a peu de corrélation entre la proportion totale d’armes à feu et la prévalence des crimes violents. Aussi, les lois restreignant l’ensemble des armes à feu semblent aussi avoir un succès pour le moins discutable, surtout lorsqu’une juridiction telle que le Canada est en bordure d’une autre, et que les mesures de contrôle ne soient pas harmonisées.

Par contre, il semble y avoir une certaine corrélation entre la disponibilité/facilité d’accès aux armes de poing et le taux d’homicide.

Tout en laissant une grande liberté de possession et d’utilisation d’armes longues, il me semble qu’un contrôle accru et harmonisé des armes de poing, automatiques et semi-automatiques en Amérique est de mise.

P.S Alors que je mettais la touche finale sur mon billet, je suis tombé sur cette étude des services correctionnels du Canada. Sa lecture m’a fait un petit velours puisque quelques-unes de ses analyses et conclusions sont semblables aux miennes :

http://www.csc-scc.gc.ca/text/rsrch/briefs/b29/b29-fra.shtml

Sources :

Sunday, June 01, 2008

Surface parking - Montreal


En bleu, les espaces de stationnement de surface (outre ceux sur les rues) au centre ville de Montréal.
In blue, the downtown Montreal surface parking spots (street-side parking not included).

Tuesday, May 20, 2008

Urbanism

Just thought I'd digress a bit from what is usually my collection of commented stats to provide what is some of the best Duany (from the New Urbanism movement) that I could find on YouTube. To view just before or just after you have read "The death and life of great american cities".

I'm not a big fan of Le Corbusier, as you might have guessed...



































Tuesday, April 22, 2008

Un autre bon coup de Line Beauchamp

Je vous laisse d'abord lire le communiqué:

"Projet de règlement sur le chauffage au bois
Pour une amélioration de la qualité de l'air et la santé des québécois

Montréal, le 18 avril 2008 – « Dorénavant, les poêles, foyers et autres appareils de chauffage au bois fabriqués ou vendus au Québec devront être certifiés ». C’est en ces termes que la ministre du Développement durable, de l’Environnement et des Parcs, Mme Line Beauchamp, a annoncé la publication pour consultation publique du Projet de règlement sur les appareils de chauffage au bois dans la Gazette officielle du Québec.

Ce projet de règlement vise à interdire, au Québec, la fabrication, la vente et la distribution d’appareils de chauffage au bois non conformes aux normes environnementales de l’Association canadienne de normalisation (ACNOR) ou de l’United States Environmental Protection Agency (US EPA).

L’objectif de ce projet de règlement est d’assurer une protection accrue de l’atmosphère contre l’émission de particules causées par l’utilisation des appareils de chauffage au bois. « Il s’agit d’une étape essentielle pour minimiser l’augmentation des émissions polluantes reliées au chauffage au bois et à plus long terme, réduire ces émissions à mesure que les appareils polluants existants seront remplacés par les nouveaux modèles conformes », a déclaré la ministre Beauchamp.

Les appareils certifiés émettent jusqu’à dix fois moins de particules fines et trois fois moins d’autres contaminants que les appareils de chauffage conventionnels, lesquels sont responsables de plus de 40 % des particules fines émises dans l’atmosphère au Québec. En hiver, le chauffage au bois est le principal responsable des valeurs élevées de particules fines dans plusieurs quartiers résidentiels et, dans certains cas, du smog hivernal. « Le projet de règlement fait donc partie des outils que le gouvernement veut mettre à la disposition de la population pour changer cette situation et garantir une amélioration de la qualité de l’air et de la santé des Québécois », a ajouté Mme Beauchamp.

Pour les consommateurs, l’achat d’un poêle certifié procurera des économies pouvant aller jusqu’à quelques centaines de dollars par année, dépendamment s’il s’agit d’un chauffage d’appoint (30 % du chauffage total) ou du chauffage principal. Ainsi, l’excédent du prix à l’achat sera amorti, sur une période de deux à sept ans, par les économies de combustible. Par la suite, le poêle certifié permettra aux consommateurs de réaliser annuellement des économies.

Il est également important de noter que des activités de sensibilisation seront entreprises par le Ministère pour inciter les propriétaires d’appareils non conformes à changer leurs équipements et à se doter d’un appareil certifié.

Le projet de règlement est soumis à la consultation publique pendant une période de 60 jours. Il peut être consulté dans le site Internet du ministère du Développement durable, de l’Environnement et des Parcs.

Les personnes intéressées sont invitées à soumettre leurs commentaires par écrit, d’ici le 23 juin 2008, en les faisant parvenir à M. Michel Goulet, chef du Service de la qualité de l’atmosphère, ministère du Développement durable, de l’Environnement et des Parcs, Édifice Marie-Guyart, 675, boulevard René-Lévesque Est, 6e étage, boîte 30, Québec (Québec), G1R 5V7.

Pour toute question relative au projet de règlement, communiquez avec M. Carol Gagné au numéro de téléphone 418 521-3813, poste 4594, par télécopieur, au numéro 418 646-0001 ou par courrier électronique, à carol.gagne@mddep.gouv.qc.ca."


C'est un autre bon coup de Mme Beauchamp. C'est une bonne politique du point de vue de l'observateur 'orienté résultat' pour les raisons suivantes:

  1. Elle ne limite pas le choix du consommateur; il existe de nombreuses solutions de substitution pour le foyer à bois traditionnel (foyer à bois à la norme EPA/ACNOR, au gaz, foyer de masse, etc.)

  2. Les solutions de rechange sont abordables (ou ont un retour sur investissement positif à relativement court terme)

  3. Les objectifs visés sont clairs et les résultats mesurables à moyen terme

  4. Le marché n'a pas réussi à atteindre ces objectifs de lui-même en temps opportun

  5. Il y a lien le plus direct possible entre la cible visée et le moyen utilisé

Pour les points 1 et 2, une recherche rapide sur Google vous permettra rapidement de valider ces affirmations: le retour sur investissement d'un foyer à bois à la norme EPA/ACNOR est d'environ 5 à 7 ans et les solutions de rechange sont nombreuses.
Les objectifs visés sont extrêmement clairs et d'ici quelques années, il sera relativement simple d'en mesurer les résultats.

Voyons maintenant ce qui en est des points 4 et 5. Regardons de prime abord les chiffres des émissions des principaux contaminants au Québec. Je ne m'attarderai qu'aux quantités absolues émises; les calculs d'intensité sont fallacieux parce qu'ils n'indiquent pas clairement les émissions totales de polluants. Si on prend une ville par exemple, et qu'on se réjouit que l'intensité des émissions des automobiles diminue, ça ne nous apportera rien de positif au point de vue environnemental si le nombre d'automobiles croît dans une proportion plus rapide. Heureusement, ce n'est pas le cas pour les principaux contaminants aériens; les émissions totales diminuent depuis 1990.


Par contre, lorsque l'on fouille de plus près, on se rend compte que l'agrégat cache des variations importantes selon la catégorie de l'émetteur de ces contaminants. Si on compare la variation des émissions de la catégorie 'Combustion non industrielle ' (qui comprend le chauffage au bois) a celle du transport (souvent blâmée pour tous les maux environnementaux nous affligeant), il est intéressant de constater les progrès importants faits, de 1990 a 2005, dans le domaine des Transports alors que le secteur de la combustion non industrielle voit ses émissions augmenter. En fait, "le nombre de logements dans lesquels on a recours au chauffage au bois a augmenté d’environ 60 % de 1987 à 2000. cette même période, l’augmentation du nombre de logements était de moins de 20 %" (MDEP).

Il y a plusieurs hypothèses qui peuvent expliquer que le marché n'est pas à lui-même produit une adoption naturelle de foyer plus efficace depuis l'arrivée de la norme EPA (la majorité des foyers à bois ne se conforment pas aux normes EPA), entre autres:

  • Le constructeur domiciliaire est bien souvent celui qui installe le foyer, mais son objectif est de minimiser le prix et ne sera pas celui bénéficiant du retour sur investissement à long terme

  • L'incitatif du retour sur investissement n'est pas assez grand pour que le consommateur en comprenne pleinement les avantages

  • Les consommateurs ne comprennent pas pleinement les risques associés à la pollution intérieure des habitations chauffées au bois avec un système non efficace. En fait, l'imagine traditionnelle est plutôt contraire; le feu de bois est associé au plein air et a la santé

Peu importe la raison, le fait est qu'il n'y ait pas d'indication d'un changement naturel de tendance à moyen terme. Ainsi, le projet de loi arrive à juste point.
À propos du point 5, "le lien le plus direct possible entre la cible visée et le moyen utilisé", c'est réussi: comme l'augmentation du chauffage au bois est la cause majeure de l'augmentation rapide de la production de contaminants de la combustion non industrielle, la mesure ne pourra qu'endiguer cette progression.


En terme de résultat à anticiper, je referre à cette étude de Statistiques Canada (2005):

http://www.ec.gc.ca/cleanair-airpur/909A7F9D-E381-42A3-BDB9-27A8DB5C4A00/Remplacement_poele_RWC_fran_26sept2005.pdf

Bien evalue les résultats du remplacement des poêles, foyers et foyers encastrés conventionnels par leur équivalent efficace sur le territoire entier du Canada, on peut probablement, sans trop se tromper, anticiper les résultats au Québec dans des proportions similaires (ci-bas).


(Remarquez toutefois que, selon les observations de l'étude, le chauffage au bois reste beaucoup plus polluant que le chauffage par tout autre type de combustible)

Ainsi donc, le ministère a bien fait son travail en proposant une réglementation qui viendra efficacement mitiger les effets négatifs d'une tendance lourde (la progression du chauffage au bois) sans s'aliéner les consommateurs.

Toutefois, pour augmenter son efficacité, la politique devrait être assortie de mesures incitatives pour la conversion des foyers à bois conventionnels existants.

Wednesday, April 16, 2008

Inflation targeting, U.S. vs Canada

Since 1991, Canada has had an inflation targeting policy. That is, by publicly providing direction as to a target inflation rate and "steering" it using monetary tools such as interest rates, the Bank of Canada is trying to stabilize inflation.

Since 1995, the target calls for 2% inflation and a bracket of 1% to 3%. There is no official inflation targeting process in effect in the Unites States. However, the central bank does make use of monetary tolls to "tweak" the economy over there as well.


Seems that a defined and predictable policy has worked pretty well for Canada since 1995 as far as its goal of stabilizing inflation is concerned.

To be noted: the inflation differentials for the period of Sept 2007 to March 2008, as well as the slope of each trend line.

L'optimisation d'inflation, perspective Canada-Etats-Unis

Depuis1991, le Canada a adopté une politique d'optimisation d'inflation. C'est-à-dire qu'en affichant publiquement un objectif de taux d'inflation à atteindre, et en "dirigeant" ce taux au moyen d'outils monétaires tels que les taux d'intérets, la Banque du Canada tente de stabilizer le taux d'inflation.

Depuis 1995, le taux visé est de 2%, dans une gamme de 1% à 3%. Les Etats-Unis n'ont pas de politique officielle d'optimisation d'inflation. Par contre, leur banque centrale utilise aussi ses outils monétaires pour "ajuster" son économie.

Il semble qu'une politique bien définie et prévisible ait connu de bons résultats au Canada depuis 1995, en temps que stabilisatrice du taux d'inflation.

A noter: le differentiel des taux d'inflations pour la période de Sept 2007 a Mars 2008, et la courbe des tendances respective de chaque pays.

Monday, March 17, 2008

Salaire médian et moyen au Canada, en 2005

I have been looking for the median individual income for a while and found it on CANSIM while doing some other research.

Je cherchais ces séries sur CANSIM depuis un bout de temps. Voici:




Source: Statistics Canada, Table 2020411 & 1110008

Thursday, February 07, 2008

Une récession en 2008?

S’il y a quelque chose qui m'interpelle depuis quelque temps, c'est la quantité d'information qui nous est disponible via tous les médias, incluant Internet. Le danger est ce que j'appellerais affectueusement la 'joe-connaisantisation' de l'information. C'est à dire, la perception que parce qu'ils ont accès à cette information, certaines personnes croient que ce qu'ils connaissent leur permet d'offrir des commentaires sur tout. Comme le disent les anglophones, "A Little Bit of Knowledge Is a Dangerous Thing" (Un petit peu de connaissance est une chose dangeurese). C'est-à-dire que posséder quelques connaissances sommaires peut nous donner l'illusion de comprendre un champ de connaissance particulier alors qu'il n'en est rien. Par contre, la confiance qui en est tirée amène souvent à l'erreur d'interprétation de par l'utilisation de raccourci intellectuel.

L'exemple en cause ici est cet article de Nathalie Elgrably dans le Journal de Québec.
Je vous invite à le lire ici :

http://www.iedm.org/main/show_editorials_fr.php?editorials_id=606

Regardons de plus près quelque unes de ses affirmations:

1. "même si les prix des maisons ont baissé, ils demeurent nettement supérieurs à ce qu’ils étaient il y a quatre ans". Vrai.

2. "On compare souvent la crise actuelle à la bulle internet de la fin des années 1990. Dans ce cas, soyons rassurés, car l’économie américaine a depuis créé plus de huit millions d’emplois, et a vu sa taille augmenter de presque 20%.". Vrai!

3. "Quant au taux de chômage, il est passé de 4,7% à 5% le mois dernier. Certes, il accuse une hausse, mais les mêmes analystes qui crient à la catastrophe aujourd’hui oublient qu’un taux de 5% était encore récemment associé au plein-emploi.". Toujours vrai!

4. "Non seulement les indices boursiers sont supérieurs à ce qu’ils étaient l’an dernier à pareille date, mais ils affichent une hausse de 80% depuis Octobre 2002." Encore vrai!

Si toutes ces affirmations sont vraies, quel est le problème alors? C'est là que le bât blesse et que l'analyse tombe à plat; Elgrably offre de bonnes réponses, mais aux mauvaises questions. La question est a savoir si l'économie américaine est en récession, et non pas si elle s'effondre et s'apprête à disparaitre (ce que, tous en conviendront, n'est pas le cas)!

Reprenons chaque point dans la perspective de voir quelle réponse Mme Elgrably nous offre:

1. "même si les prix des maisons ont baissé, ils demeurent nettement supérieurs à ce qu’ils étaient il y a quatre ans"
C'était aussi le cas pendant les récessions de 2001 et 1990. Réponse réelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

2. "On compare souvent la crise actuelle à la bulle internet de la fin des années 1990. Dans ce cas, soyons rassurés, car l’économie américaine a depuis créé plus de huit millions d’emplois, et a vu sa taille augmenter de presque 20%."
C'était aussi le cas pendant les récessions de 2001 et 1990. Entre chaque période de récession, il y a une période d'expansion plus importante. Réponse réelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

3. "Quant au taux de chômage, il est passé de 4,7% à 5% le mois dernier. Certes, il accuse une hausse, mais les mêmes analystes qui crient à la catastrophe aujourd’hui oublient qu’un taux de 5% était encore récemment associé au plein-emploi.":
Durant les récessions de 2001, 1969 et 1953, le taux de chômage était inférieur à 5%. Le taux absolu de chômage n'est pas un indicateur de récession. Réponse réelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

4. "Non seulement les indices boursiers sont supérieurs à ce qu’ils étaient l’an dernier à pareille date, mais ils affichent une hausse de 80% depuis Octobre 2002."
Ce fut vrai dans pratiquement tout les cas de récession depuis 50 ans! (L'indice Standards & Poors 500 a bondi de 127% de 1996 jusqu'à la récession de 2001, 95% de 1985
à la récession de 1990. Mieux? Au plus fort de ces récessions, l'augmentation du S&P 500 par rapport à 5 ans auparavant était de 90% et 55% respectivement). Ce commentaire ne fait que la preuve de la résilience du système capitaliste, mais n'a rien avoir avec le concept de récession. Réponseréelle: elle peut être en récession et que l'économie américaine ne s'effondre pas.

Si Nathalie Elgrably tentait de nous faire la démonstration que les États-Unis ne sont pas en situation de récession ou sur le point de l'être, c'est raté. Si elle désirait nous faire comprendre que les médias nous proposent des scénarios catastrophes, il aurait fallu nous offrir quelques exemples. La vaste majorité de ce que l'on peut voir dans les médias actuellement parle de récession. Pour le reste, j'ose croire que la vaste majorité de la population est déjà convaincue que l'Amérique n'est pas à l'aube d'une crise sans fin.

Mais encore faut-il pouvoir comprendre ce qu'est une récession et en identifier quelques signes avant-coureurs.

Voyons ce qu'en dit Mme Elgrably: "Pour pouvoir déclarer que l’économie est en récession, il faut que le PIB diminue pendant six mois consécutifs. Or, pas un seul mois de déclin n’a encore été enregistré."

Encore la, pas faux, mais pas vraiment instructif non plus. Voyons pourquoi. Pour bien comprendre, il faut s'en remettre au cycle de production des entreprises et la définition même de récession. Commençons par cette dernière.

Aux États-Unis, l'organisme qui est devenu l'arbitre de facto de la datation des récessions et le National Bureau of Economics research ou NBER (www.nber.org).

Voici ma traduction libre d'une partie de la Foire Aux Questions (FAQ) du NBER:
"Q: La presse financière cite souvent la définition stricte d'une récession comme étant deux trimestres consécutifs de déclin du PIB réel. Il y a-t-il un rapport avec le système de datation du NBER?
R: La pluspart des récessions identifiées par nos procédures ont en effet eux deux périodes consécutives ou plus de contraction du PIB, mais pas toutes. Par contre, notre procédure diffère de plusieurs façons. Premièrement, nous utilisons des indicateurs mensuels pour en arriver à une chronologie de datation mensuelle. Deuxièmement, nous utilisons des indicateurs qui sont sujets à revision moins fréquente. Il faut se rappeler que notre définition de récession inclue la mention "une décroissance significative de l'activité économique".

Q: Une récession n'est-elle pas une période d'activité économique réduite?
R: Il est plus exact de dire qu'une récession, de la façon dont l'on utilise le terme, est une période de réduction de l'activité économique, plutôt que réduite. Nous identifions un mois qui a vu l'économie atteindre un plateau d'activité et un autre mois où l'économie a atteint le niveau relatif le plus bas. La période qui les sépare est une récession; une période où l'économie se contracte. Ce qui suit est une période d'expansion. L'activité économique est sous la normale ou diminuée pendant une partie de la récession et pendant une partie de la période d'expansion. Certains qualifient cette période d'activité réduite un "slump".

Q: Que penser d'un taux de chômage croissant?
R: Le taux de chômage est généralement un indicateur tardif. Une croissance modeste du taux depuis un niveau déjà faible est compatible avec les données statistiques. Il faut être capable de filtrer les variations aléatoires et temporaires qui se produisent occasionnellement."

Le NBER propose une datation rétroactive des périodes de récession et ainsi, ne se prononce sur ces dates que bien après la fin des récessions. Pour la récession de 2001, le NBER a établi les dates d'entrée et de sortie en Juillet 2003.

Le NBER identifie les cycles économiques. Esseyons donc de comprendre le principe des cycles économiques de l'entreprise pour en comprendre les effets macro-économiques. Une entreprise ajuste sa production en fonction de la demande;
1. Une variation de la demande amene...
2. Un ajustement de la production. Si c'est à la baisse de façon significative, il y a réduction du personnel.
3. Chômage/baisse de production en agrégat/etc.

Il y a des signaux, des indicateurs qui sont mesurables durant toutes ces phases de contraction de l'activité économique. On ne parle de récession qu'a posteriori, une fois que la dernière phase est observée et quantifiée. Les indicateurs de récession de la dernière phase sont donc qualifiés d'indicateurs 'tardifs', alors que ceux de la première phase sont des indicateurs 'avancés'.

Puisque Mme Elgrably voulait nous convaincre de l'absence de raison de s'inquiéter d'une récession imminente ou existente, il aurait donc fallu porter notre attention sur les indicateurs avancés, soit la variation de la demande.

Analysons les signes émis par quelques-uns des indicateurs avancés les plus utilisés.
Tout d'abord, le "Purchasing Manager Index". Cet indice, publié par le 'Institute for Supply Management ', est constitué d'un ensemble de sous-indices qui couvre les champs suivants :
  • Niveau de production (.25)
  • Nouvelles commandes-clients (.30)
  • Livraison aux fournisseurs (.15)
  • Inventaires (.10)
  • Niveau d'emploi (.20)
Cet indice est établi par le biais de questionnaires envoyés directement aux entreprises chaque mois. Le graphique suivant détaille l'évolution de l'indice depuis 1948. Notez que j'ai fait la moyenne par trimestre pour réduire le nombre d'entrées. Tout mouvement sous la barre de 50 indique un ralentissement de l'activité économique.


Depuis 1948, il n'y a eu que 70 trimestres sur 236 (30%) ou la moyenne était sous le niveau de 50. De ceux-ci, 65% (46 sur 70) se trouvaient soit en période de récession (selon la datation du NBER), soit adjacente de moins de 6 mois d'une récession. L'indice n'est donc pas un prédicateur parfait d'une récession (il y a même eu des cas rares où l'indice était supérieur à 50 en période de récession). Par contre, lorsque combiné avec d'autres indices avancés, le PMI est un indice relativement efficace.
Comme l'indice fut en dessous de 50 pendant les deux derniers trimestres aux États-Unis, il semble indiquer,
à lui seul, une chance de 65% d'être soit en récession ou en sa proximité.

Un autre indicateur avancé de récession typiquement utilisé est le renversement de la courbe de rendement. De façon simple, la courbe de rendement désigne la représentation graphique ponctuelle des taux d'intérêt en fonction de leur durée. Typiquement, les taux d'intérêt
à court terme sont moins élevés que ceux à long terme. L'explication vient du fait de la tendance naturelle des investisseurs de préférer, à taux égaux, les liquidités. Ce qui est logique. Il y a donc prime à l'investissement à plus long terme pour rendre les instruments financier à long terme plus attrayant.
Lorsque la courbe de rendement s'inverse, ce qui se produit est que les investisseurs ont tellement peu confiance en l'économie
a court terme qu'ils préfèrent la valeur sure d'un investissement à plus long terme. La prime à l'investissement s'inverse et les taux à court terme deviennent élevés que ceux a long-terme.

Pour plus de détail, allez voir ce qu'en dit la Feds de New York :
http://www.newyorkfed.org/research/capital_markets/ycfaq.html

Dans le passé, une inversion de la courbe de rendement a régulièrement été suivie d'une récession. Cette dernière la suivant de 8 à 16 mois. En se servant de la courbe de rendement et d'une projection en avant de 12 mois, voici les prévisions de la Feds de New York (les zones grises représentent les récessions passées):

Encore une fois, pas de boule de cristal ici; il y a eu quelques pics dans le passé qui auraient pu nous faire croire à des récessions sans que ce soit le cas.

D'ailleurs, Bernard Bernanke et Alan Greenspan, respectivement président et ex-président de la feds américaine, ont tous deux exprimé des doutes sur la capacité contemporaine de prédictions des récessions de la courbe de rendement:

"In previous episodes when an inverted yield curve was followed by recession, the level of interest rates was quite high, consistent with considerable financial restraint," Bernanke said in a speech in March.
"This time, both short- and long-term interest rates -- in nominal and real terms -- are relatively low by historical standards."

"Although the slope of the yield curve remains an important financial indicator, it needs to be interpreted carefully. In particular, a flattening of the yield curve is a not a foolproof indicator of future weakness. For example, the yield curve narrowed sharply over the period 1992-1994 even as the economy was entering the longest sustained expansion of the postwar period." Alan Greenspan

Finalement, un dernier indicateur avancé sur lequel je voulais m'attarder est celui du Conference Board. Il recoupe en partie les indicateurs précédents et en fait une synthèse avec plusieurs autres, dont la durée moyenne d'une semaine de travail, la moyenne de réclamation de chômage, les nouveaux permis de construire, etc.

Cet indice est en baisse depuis maintenant 5 mois. (Voir les détails à http://www.conference-board.org/pdf_free/economics/bci/LEI0308.pdf)

L'indice du Conference Board a aussi ses critiques et a connu plusieurs ratés dans le passé. Par contre, tout observateur sérieux de la situation économique actuel ne peut que s'insurger face à l'affirmation suivante de Mme Elgrably:

"Toutefois, un ralentissement de la croissance américaine n’est pas exclu. C’est d’ailleurs ce qui se produit généralement après une période de croissance rapide comme celle enregistrée par nos voisins du sud depuis 2001. Mais affirmer que les États-Unis sont en récession relève carrément de la mauvaise foi."

En fait, la mauvaise foi serait d'ignorer qu'il y a nombre d'indices avancés signalant la possibilité bien réelle que l'économie américaine soit au début ou même au milieu d'une récession. À moins que l'on ait ici affaire à de l'incompétence, ou à un biais idéologique...

Mais, poussons plus loin l'analyse et voyons s'il n'y aurait pas quelques signes coïncidents ou même tardifs qui nous indiqueraient que nous sommes en fait en pleine récession.

L'indice présent de confiance des consommateurs du Conference Board, ci-bas, est en baisse marquée. Cet indice coindident est associé a des périodes de ralentissement de l'activité économique puisque la majorité du PIB américain est dérivé de la consommation personnelle.


Si on observe maintenant la variation du taux de chômage pendant cinq récessions.
(Portez une attention particulière sur la partie en jaune; la variation négative des emplois des secteurs non agricoles. La ligne en bleu représente le taux de chômage pour le mois de mars aux États-Unis)






Si on compare à la situation présente sur le graphique qui suit, on se doit de remarquer des similitudes; augmentation du taux de chômage de façon significative et perte d'emploi net pour les secteurs non agricoles. Tous deux des indicateurs tardifs de récession.


Pour ce qui est de la bourse; l'étalon dans le cas de récession est le S&P 500.

Pendant la récession de 1981, en rouge (une descente avec une remontée vers la fin de la récession):



Pendant la récession de 1990 (une descente avec une remontée vers le milieu de la récession):


Pendant la récession de 2001 (une descente amorcée avant la récession qui se poursuit bien après sa fin):

Et maintenant (la période en rouge couvre Janvier à Avril 2008):


En résumé, si tant d'économistes importants soutiennent que les États-Unis sont présentement en récession, ce n'est pas parce qu'il y a un facteur spécifique déterminant qui l'indique d'une façon irréfutable. C'est dû plûtot au fait qu'une accumulation d'indices avancés, coincidents et meme tardifs indiquent cette possibilité. Mme Elgrably aurait dû faire ses devoirs et l'indiquer ou, du moins, ne pas associer cette possibilité a de la mauvaise foi, ce qui n'est pas le cas. En tant qu'observateur "orienté-résultat", la position de Mme Elgrably est fort peu défendable. Même si, dans 6 mois, le NBER déclarait qu'il n'y a pas eu de véritable récession, les indices sont suffisamment importants pour en prendre acte.


P.S. En terminant, je voulais une fois de plus réfuter un mythe qui a la couenne dure:
"À 5% de chômage, c'est le plein emploi! Nous ne pouvons pas parler de récession!"
Une récession est un relatissement de l'activité économique, ça n'implique pas nécessairement un taux de chômage extrêmement élevé. Par exemple, la récession de 1953-54 débute avec un taux de chômage de 2.6% et se termine avec un taux de 5.9%. Celle de 2001 débute avec un taux de chômage de 4.3% et se termine avec un taux de 5.5%. Par opposition, les États-Unis ont connu des périodes où le chômage était plus élevé que maintenant sans être en récession. Ce qu'il faut plutôt observer, c'est une augmentation relative du taux de chômage. Il faut comprendre que ce taux est un indicateur tardif de récession; c'est à dire, les employeurs couperont dans les emplois une fois qu'ils peuvent observer que leurs commandes baissent.
P.P.S. Au cas ou on me signalerait que Nathalie Elgrably est économiste: elle n'est pas plus économiste que moi. Nous avons tous deux les memes diplomes. Mais je n'oserais jamais m'afficher comme économiste. Ca, ca serait de la mauvaise foi!

Lectures complémentaires:

http://www.newyorkfed.org/research/capital_markets/ycfaq.html
http://www.factset.com/websitefiles/PDFs/outlook/french/30-01-2008french.pdf
http://www.conference-board.org/pdf_free/economics/bci/BCI-Handbook.pdf
http://www.telegraph.co.uk/money/main.jhtml?xml=/money/2008/01/07/bcnuseco107.xml
http://www.cbc.ca/money/story/2008/01/08/merrilllynchrecession.html?ref=rss
http://www.financialpost.com/story.html?id=326071
http://www.reuters.com/article/ousiv/idUSN0747602120080407