計量経済学なんて茶番だ

という過激なタイトルをつけてみた.
計量経済学とは,広義ではデータ解析の学問.狭義では,経済理論の妥当性を経済データを調べることで検証する学問.狭義を重視する経済学者が多いから,「理論なき計測はダメ」ということが言われる.理論なき計測=measurement without theoryは,クープマンスが書いた有名な論文からきている表現.クープマンスみたいな偉い人が言ったことで,いまに至るまでみんなこの表現に囚われている感じがする.でもクープマンスが書いたその論文に対して誰かがダメだしをして,クープマンス自身,「ごめんなさい論文」を書いていることはあんまり知られてないようだ.ダメだしした論文の趣旨としては,「地道な計測結果の蓄積が真理の発見を助けた事例は歴史にたくさんある(たとえばティコブラーエの観測結果とケプラーの法則).だから,理論なき計測だってよいんだ」という感じだった気がする.
理論なき計測を批判するのに,逆は批判されない雰囲気がある.すくなくともこれまではあった.これからは変わっていくのかもしれないけど.
とにかく,理論なき計測はダメだ,という風潮が強い.この風潮があるからこそ,計量経済学が「一致性」という分析方法の持つべき性質にこだわっているような気がする.
計量経済学では推定にあたって「一致性」という性質が重視される.一致性とは,「データ(観測)を増やしていけば,だんだん真実に近づいていく」性質のことを言う.語弊を恐れずに言えば「一致性とは,漸近的に真理を捉えること」と言える.あるサイコロがあって,1の目がでる確率はいくつか?を知りたいとする.普通は1/6ということを知っているわけだけど,これを仮に知らないとする.そこで,実験する.6回ふって1が2回でたとしよう.この時点では,2/6だと推測する.次に,60回ふる.すると,13回でたとしよう.この時点では,13/60だと推測する.600回ふる.すると,105回でたとしよう.この時点では,105/600だと推測する.つぎに6000回ふる・・・・このように,回数を増やせば,だんだん真実の値(=1/6)に近い値が得られる.6回しか振らないときは,3回くらい1が出ることは大いにありうるが,6000回も振って3000回も1がでることはほとんどないだろう,ということである.これを大数の法則という.
計量経済学者が分析する上で重視する「一致性」とは,大数の法則に基づいている.上の例で,サイコロを振る場合,当然,サイコロはずっと同じものをつかっている.サイコロの形は変わらない.では,経済学の場合は?経済学の場合だと,サイコロの構造を知りたいのではなく,経済の構造を知りたい.その構造を知るために,経済データを得て,「一致性」があるような分析をしたいと考える.ところが,一致性とは,「データが無限にあるとき,推定結果が真理に近づく」という性質を言っているので,データが無限にあるような状況を考えないといけない.だから,たとえばクロスセクションデータで,都道府県47個のデータをつかって分析して,一致性があります,とかいうのは茶番にしか見えない.だって,47個すべてのデータを使っているのだから,それ以上データの個数は増えない.それ以上,分析の精度は改善されない.背後にある母集団の大きさとサンプルの大きさの相対的関係についてあんまり深く考えずに一致性があるからダイジョウブ,という議論は,浅はかな議論で,「これは一体,何の分析を行ったの?」と思ってしまう.
もう一つ.サイコロの例で,使うサイコロはずっと同じだった.サイコロの構造はずっと変わらなかった.でも,経済の場合,経済構造は変わっているだろう.だから,そもそも計量経済学で一致性が必要だ,みたいな議論が意味ないのでは?と思ってしまうことがある.こんなこというとすごくむなしいんだけど.じゃぁどうすればいいのか,という議論はまた別.理論なき計測という言葉に囚われているばっかりに,こうなってしまっているのだろうね.どの時代にも妥当する普遍の真理的な経済理論は存在しない.あるときは経済理論Aが正しく,またある時代には経済理論Bが正しいのだろう.
自然科学でたとえば惑星の運動法則に関する理論があって,データがこれを支持したとする.惑星の運動法則はおそらく数百年前も今日も同じだろう.だとすると,データは多ければ多いほどよい.ある数年のデータを使うよりも,100年分ぜんぶの観測データをつかったほうが,理論の検証は精度があがるだろう.
でも,経済の場合,数百年前の経済構造と,今日の経済構造が同じとはとても思えない.だから,「データが多ければ多いほどよい,なぜならば大数の法則に基づいて一致性のある分析が得られるから」というのは,「経済構造が変わっていない期間の中で」という条件をつけないといけない.計量経済学をするためにこれは絶対に考えないといけない.「理論が妥当する単位期間は?」という問いを,みんなわすれちゃってる感じがする.
でもこれを思い出したところで,「一致性」はデータが無限になったときに真理に近づける,と言っているに過ぎないわけで,そもそもデータがそれほどとれない場合はどうしたいいか?という疑問が残る.たとえば,さっきの都道府県の例.あるいはミクロデータで個人の消費データであっても,せいぜい1億3千万しか日本人いないのだから,データは無限にはなりえない.いったい母集団として何を想定しているの?サンプルサイズは,母集団に対してどれくらい大きいの?一致性って,何?ということを考えてみたら,計量経済学なんて茶番だ,という感じがしてくる.

コメント

  1. uncorrelated より:

    確かに計量分析はモデルを置いて分析するので、仮説設定はとても大事だと思われていて、窮屈な面も否定できません。
    しかし社会学や自然科学を含めて統計的な検定は全て仮説を設定するものなので、「理論なき実証」を肯定する事は、現在ある学問分野全てを否定する事になります。
    ここでの仮説は、二つのグループで平均値が同じや、分散が同じといった素朴なものも含まれますが、何らかのモデルが仮定されていることは変わりません。
    > 「データが多ければ多いほどよい,なぜならば大数の法則に基づいて一致性のある分析が得られるから」というのは,
    時系列分析では構造変化の検定はよく行いますし、ミクロ実証分析の場合はパネルデータを用いるので、あまり長い期間の分析は疑われる事が多いです。
    また、サンプル数の増加によって得られる信頼性の上昇は逓減していくので、十分なサンプル数がある場合はサンプルにバイアスが無いことが重要視されるみたいです。

  2. daniel より:

    uncorrelatedさん、
    コメント、ありがとうございます。
    >しかし社会学や自然科学を含めて統計的な検定は全て仮説を設定するものなので、「理論なき実証」を肯定する事は、現在ある学問分野全てを否定する事になります。
    実は僕は、「統計的な検定」が嫌いです。「仮説が妥当する期間」についてあまり深く考えずにこれを行っている人が多いからです。そうは言っても、「嫌い」とだけ言っていたら何も進展しないので自分の論文でも検定はしましたが・・・。内心いつも「仮説が妥当する期間」のことを気にしながら。
    ちなみに、伝統的な「統計的な検定」の問題点については、僕なりに以下のような嫌味をEconomics Lettersにforthcomingの論文の中で書いて、抵抗したつもりです。
    We assert that any effort to verify the EMH by the classical hypothesis
    testing is in vain and that it is productive to establish a measure
    of relative market inefficiency
    http://www.sugi-shun.com/papers/ito_sugiyama_2009.pdf
    2nd paragraphの冒頭より引用。
    詳しくは論文を読んでいただけたら、と思います。論文の主張としては「効率的市場仮説をめぐっていつまでも仮説の是非をめぐって経済学者が白黒つけられないのは、仮説がある程度は成り立っているときもあったり、ぜんぜん成り立っていないときもあったりするからなわけで、何も考えずにサンプルを適当にもってきて、それに対して統計的検定をしてきたって、決着つくわけがないでしょう」ということです。

  3. uncorrelated より:

    danielさんの論文をざっと拝見させて頂きましたが、AR(n)に従う計量モデルを立てていますよね。また、正規分布も仮定しているわけです。一般的な計量経済学の手法、しかもパラメトリックな分析手法を用いていますよね。
    「モデル」が妥当する期間について問題意識があるようですが、論文中に構造変化をテストした形跡が見当たりませんでした。図表が見られないので詳細が分からないのですが、構造変化なりを観察された場合は、もっと推定結果で丁寧に説明された方がよろしいかと思います。
    なお、説明変数の係数の大きさの変化自体は、経済理論を棄却するものではありません。
    また、「モデル」が当てはまるかどうか、「モデル」が経年で変化するかは、それぞれ計量的には仮説になります。
    あと、専門外の人が見ても何だか分かるように、もうちょっと論文中で市場効率性をどう計測するのか、なぜそれが市場効率性と言えるのかの説明をして欲しい気がします。
    最後に、前に書いたコメントの一部をもう一度書いておきますね。
    > ミクロ実証分析の場合はパネルデータを用いるので、あまり長い期間の分析は疑われる事が多いです。
    確か、北村(2005)「パネルデータ分析」などでも指摘されていることです。

  4. daniel より:

    こんなところで論文のコメントがくるとは思っていませんでした。見ず知らずの方(ですよね?)なのに、ありがとうございます。
    >図表が見られないので詳細が分からないのですが
    Fig1,2がp7、8にあります。ジャーナルに投稿したときに、図表は一番後ろにまとめるような形になりました。
    >あと、専門外の人が見ても何だか分かるように、もうちょっと論文中で市場効率性をどう計測するのか、なぜそれが市場効率性と言えるのかの説明をして欲しい気がします。
    市場効率性は予測不可能性なので、時変ARモデルでは、AR係数が0=市場が効率的になります。ただ、だからといって、「AR係数が大きければ大きいほど市場が非効率的だ」と僕は素朴に思ってしまいましたが、これに関してはセミナー発表などでけっこう突っ込まれました。レフェリーにも突っ込まれるかな、そしたらどう切り返そうかな、と思っていたら、何も言われずにacceptされ、その部分は言及しないままいまの論文の形になっている・・・というのが正直な経緯です。

  5. uncorrelated より:

    Fig1と2では、係数の大きさがプロットされているだけな気がします。これでは、モデルの全体の有意性が分からないのと、係数の変化が確率的な範囲のものなのか、もっと大きい変化なのかが分かりません。
    また、株価が投資家の持つ情報で決定されているとすると、全く自己回帰をしない株価というのは、毎期、投資家の持つ情報が大幅に入れ替わると言う事になるので、逆に非効率的な気がします。
    市場の効率性とは、将来の収益見込みに対して株価が迅速に反応すると言う事なので、将来の収益見込みが変化したときに、株価がどう動くかを分析された方がよろしいのではないでしょうか。
    イベント・スタディーは某所でも報告されていましたし、近年の株式市場の分析としてはトレンドな気がします。
    確かに計量経済学には不偏性、一致性、有効性、頑強性などの基準があり、分析手法の選択では、これらの基準をなるべく満たす方が望ましいです。また、推計結果の有意性は検定する必要があるでしょう。
    しかし、分析した結果の数字が、経済学的に何を意味するのかが曖昧な方が大きな問題だと思います。
    何はともあれ、レフリーに文句を言われなきゃ正義ですが(笑)

  6. 匿名 より:

    一致性と定常性の区別もつかずにこのようなことを述べますと、自分は阿呆です、と宣伝しているようなものです。
    また、何故一致性が重要なのかという理論や、小標本に対する理論の構築もなされています。浅学故に学問を批判してしまうのはありがちですが傍ら痛い行為で
    す。

タイトルとURLをコピーしました