0

平均ベクトルに関する検定(共分散行列が異なる場合)

23
0
$$$$

3.9.2b 多変量の場合(標本のサイズが異なる場合)

いま,独立する2つの標本$\boldsymbol{y_{11},y_{12},\dots,y_{1n_1}}$および$\boldsymbol{y_{21},y_{22},\dots,y_{2n_2}}$を考える.ただし,これらはそれぞれ多変量正規分布$N_p(\boldsymbol{\mu_1, \Sigma_1})$および$N_p(\boldsymbol{\mu_2, \Sigma_2})$に従っているとする($\boldsymbol{\Sigma_1} \neq \boldsymbol{\Sigma_2}$).

Bennett(1951)の手法

$\boldsymbol{y_2i}$$n_2-n_1( \gt 0)$個の値を切り捨てる操作をくり返す手法.しかし,

(1)$n_2 \gt\gt n_1$の場合に無駄が生じる
(2)再現性がない($\boldsymbol{y_2i}$のどの値を切り捨てるかに依存する)

といった欠点から,あまり推奨されない.

準備

$\boldsymbol{\Sigma_1}$,$\boldsymbol{\Sigma_2}$:既知のとき,

$\displaystyle Z^2=(\boldsymbol{\bar{y_1}-\bar{y_2}})^{'}\Big(\frac{\boldsymbol{\Sigma_1}}{n_1}+\frac{\boldsymbol{\Sigma_2}}{n_2}\Big)^{-1}(\boldsymbol{\bar{y_1}-\bar{y_2}})$

は帰無仮説$H_0$のもとで$\chi_p^2$分布に従う$^{※}$.

共分散行列を標本共分散行列で書き換えたもの

$\displaystyle T^{*2}=(\boldsymbol{\bar{y_1}-\bar{y_2}})^{'}\Big(\frac{\boldsymbol{S_1}}{n_1}+\frac{\boldsymbol{S_2}}{n_2}\Big)^{-1}(\boldsymbol{\bar{y_1}-\bar{y_2}})$

は,ホテリングの$T^2$分布(または$\chi^2$分布)に従わない.

主な$T^{*2}$の(近似)棄却臨界値

初めに,James(1954)がカイ二乗分布による方法を提唱した.
その後のYao(1965)で,Welchによる1変量の場合の解法が一般化され,Johansen(1980),Nel and van der Merwe(1986), Kim(1992)では,さらなる解法が提案された.

以下では,そのうちの主要な2つを紹介する.

$\boldsymbol{V_i}=\boldsymbol{S_i}/n_i, i=1,2$
$\boldsymbol{S_e}=\boldsymbol{V_1}+\boldsymbol{V_2}$
$\boldsymbol{V}=\boldsymbol{V_1^{-1}}+\boldsymbol{V_2^{-1}}$

James(1954)の解法

・・・$T^2$のおおよその棄却臨界値を$(A+B\chi^2_{\alpha, p})(\chi^2_{\alpha, p})$としている.
ただし,
$\displaystyle A=1+\frac{1}{2p} \sum_{i=1}^{2}\frac{1}{n_i-1}[tr(\boldsymbol{S_e^{-1}V_i})]^2 $
$\displaystyle B=\frac{1}{2p(p+2)}\sum_{i=1}^{2}\frac{1}{n_i-1}\{tr[2(\boldsymbol{S_e^{-1}V_i})^2]+[tr(\boldsymbol{S_e^{-1}V_i})]^2\}$

で,$\chi^2_{\alpha, p}$は自由度$p$$\chi^2$分布における上側確率$\alpha$の点とする.

Yao(1965)の解法

・・・$T^2$のおおよその分布を$T^2_{p,\nu}$としている.
ただし,自由度$\nu$

$\displaystyle \frac{1}{\nu}=\frac{1}{(\boldsymbol{T^{*2}})^2}\sum_{i=1}^{2}\frac{1}{n_i-1}[(\boldsymbol{\bar{y_1}-\bar{y_2}})^{'}\boldsymbol{S_e^{-1}V_iS_e^{-1}}(\boldsymbol{\bar{y_1}-\bar{y_2}})]^2$

で定められ,その値は$min(n_1-1, n_2-1)$から$n_1+n_2-2$の間であることがわかっている.

したがって,この検定は$\boldsymbol{\Sigma_1}=\boldsymbol{\Sigma_2}$の場合には検出力が低くなる.

近似検定の判別関数係数ベクトルは

$\boldsymbol{a}=\boldsymbol{S_e^{-1}}(\boldsymbol{\bar{y_1}-\bar{y_2}})$

で,Bonferroni区間は$\mu_{1j}-\mu_{2j}(j=1,2,\dots,p)$に対し

$\bar{y_{1j}}-\bar{y_{2j}} \pm t_{\alpha/2p,\nu_j} \sqrt{\frac{s_{1,jj}^2}{n_1}+\frac{s_{2,jj}^2}{n_2}}$

ただし$s_{1,jj}^2$$s_{2,jj}^2$はそれぞれ$\boldsymbol{S_1}$$\boldsymbol{S_2}$の第$j$対角成分であり,

$\frac{1}{\nu_j}=\frac{c^2_j}{n_1-1}+\frac{(1-c_j)^2}{n_2-1}$
$c_j=\frac{s^2_{1,jj}/n_1}{s^2_{1,jj}/n_1+s^2_{2,jj}/n_2}$

投稿日:20241217
OptHub AI Competition

この記事を高評価した人

高評価したユーザはいません

この記事に送られたバッジ

バッジはありません。
バッチを贈って投稿者を応援しよう

バッチを贈ると投稿者に現金やAmazonのギフトカードが還元されます。

投稿者

B3

コメント

他の人のコメント

コメントはありません。
読み込み中...
読み込み中