本ページでは、F検定の考え方についてまとめたい。
仮説検定の基本的な考え方については以下のページを参照されたい。
F検定の概要
F検定は、複合仮説検定といって、複数のパラメータについて仮定をおいたものとなっている。
まず、以下の重回帰分析を行うことを考える。
F検定における仮説は以下の通りとなる。
帰無仮説:
対立仮説:
YとX_1の関係を見たいと思った時、X_1以外の影響をコントロールする必要があり、X_2とX_3はそのために回帰式に追加されたコントロール変数である。この変数2,3は果たしてコントロール変数として機能するのだろうか。F検定はこうした疑問に対して解決策を提示する。もし帰無仮説を棄却できれば、コントロール変数は確かに被説明変数(Y)と関係があることを示せるからである。
F統計量
F統計量は以下の式で表される。
ここで、添え字のUはUnristrictedの略で、帰無仮説の制約がない元の回帰式で回帰した時の残差2乗和、RはRistrictedの略で、帰無仮説が正しいと仮定した下での残差2乗和を示している。Nはサンプル数、kはパラメータの数である。qは制約の数である(上記の例では2)。
この統計量が自由度NーKー1のF分布に従い、閾値を超えているかどうかによって統計的な有意性を判断することになる。もし帰無仮説を棄却できれば、X_2またはX_3はYと関係があることを示したこととなる。
それぞれの係数についてt検定をするのではだめなのか
F検定ではなく、β_2、β_3それぞれについてt検定を行い、個別に統計的有意性を確認する方法も考えられるが、わざわざF検定を持ち出す必要があるのか。
それぞれの係数については有意とならなくても、F検定をすると有意になる、というケースがある。X_2、X_3の1個ずつを取り出してみるとYに影響を与えているといい難くても、X_2、X_3全体でみるとYに影響を与えているという場合が考えられる。