0

東大数理院試2024年度専門B問18解答

46
0
$$\newcommand{Aut}[0]{\operatorname{Aut}} \newcommand{CC}[0]{\mathbb{C}} \newcommand{dis}[0]{\displaystyle} \newcommand{FF}[0]{\mathbb{F}} \newcommand{Gal}[0]{\mathrm{Gal}} \newcommand{IIm}[0]{\operatorname{Im}} \newcommand{Ker}[0]{\operatorname{Ker}} \newcommand{NN}[0]{\mathbb{N}} \newcommand{PP}[0]{\mathbb{P}} \newcommand{QQ}[0]{\mathbb{Q}} \newcommand{RR}[0]{\mathbb{R}} \newcommand{RRe}[0]{\operatorname{Re}} \newcommand{tr}[0]{\operatorname{tr}} \newcommand{ZZ}[0]{\mathbb{Z}} $$

東大数理の院試(2024年度専門B問18)の解答です.
自分が作った解答は ここ に置いてあります.

(東大数理2024年度専門B問18)

$n$を正整数とし,確率空間$(\Omega, \mathcal{F}, P)$上で定義された$2n$個の独立確率変数$X_1, X_2, \dots, X_n, \varepsilon_1, \varepsilon_2, \dots, \varepsilon_n$を考える.各$i = 1, \dots, n$について,$X_i$は非負値で$E[X_i^2] < \infty$を満たし,また$\varepsilon_i$は平均$0,$分散$1$の正規分布に従うとする.$\theta$を正の実数パラメータとし,各$i = 1, \dots, n$に対して
$$ Y_i = \varepsilon_i \sqrt{\theta(1 + X_i)} $$
と定める.
観測データとして$X_1, \dots, X_n, Y_1, \dots, Y_n$が得られているとする.関数$L_n : (0, \infty) \to \RR$
$$ L_n(t) = \prod_{i = 1}^n \frac{1}{\sqrt{2\pi t(1 + X_i)}} \exp \bigg( -\frac{Y_i^2}{2t(1 + X_i)}\bigg) \qquad (t \in (0, \infty)) $$
で定義し,$L_n(t)$$(0, \infty)$において最大にする$t$として推定量$\widehat{\theta}_n$を定める.

  1. $\widehat{\theta}_n$$X_1, \dots, X_n, Y_1, \dots, Y_n$を用いて表せ.
  2. $\widehat{\theta}_n$$\theta$の不偏推定量であることを示せ.さらに,$\widehat{\theta}_n$の分散を求めよ.
  3. $\dis{\overline{X}_n = \frac{1}{n} \sum_{i = 1}^n X_i}$とおく.$t$に関する方程式
    $$ \frac{1}{n} \sum_{i = 1}^n Y_i^2 = t(1 + \overline{X}_n) $$
    の解として推定量$\widetilde{\theta}_n$を定める.$\widetilde{\theta}_n$$\theta$の不偏推定量であることを示せ.
  4. $\widehat{\theta}_n$の分散と$\widetilde{\theta}_n$の分散の間の大小関係を判定せよ.

(1)
$$ \log L_n(t) = \sum_{i = 1}^n \bigg( -\frac{1}{2} \log t - \frac{\varepsilon_i^2 \theta}{2t} + C_i\bigg) $$
である.ただし$C_i$$t$によらない実数.これより
$$ \frac{d}{dt} \log L_n(t) = \sum_{i = 1}^n \bigg( -\frac{1}{2t} + \frac{\varepsilon_i^2 \theta}{2t^2} \bigg) = \frac{1}{2t^2} \bigg( -nt + \sum_{i = 1}^n \varepsilon_i^2 \theta \bigg) $$
なので
$$ \widehat{\theta}_n = \frac{1}{n} \sum_{i = 1}^n \varepsilon_i^2 \theta = \frac{1}{n} \sum_{i = 1}^n \frac{Y_i^2}{1 + X_i}. $$
(2)
$\varepsilon_i$たちの独立性と$E[\varepsilon_i^2] = V[\varepsilon_i] = 1$より$E[\widehat{\theta}_n] = \theta$となるから,$\widehat{\theta}_n$$\theta$の不偏推定量である.また
$$ E[\widehat{\theta}_n^2] = \frac{\theta^2}{n^2} \bigg( \sum_{i = 1}^n E[\varepsilon_i^4] + \sum_{i \not= j} E[\varepsilon_i^2]E[\varepsilon_j^2] \bigg) = \frac{\theta^2}{n^2} (n \cdot 3 + n(n - 1)\cdot 1^2) = \frac{n + 2}{n} \theta^2 $$
より$V[\widehat{\theta}_n] = \frac{2}{n}\theta^2.$

(3)
$$ \widetilde{\theta}_n = \frac{\frac{1}{n} \sum_{i = 1}^n Y_i^2}{1 + \overline{X}_n} = \frac{\sum_{i = 1}^n Y_i^2}{\sum_{i = 1}^n (1 + X_i)} = \frac{\sum_{i = 1}^n \varepsilon_i^2 \theta(1 + X_i)}{\sum_{i = 1}^n (1 + X_i)} $$
であるから,$X_i$が与えられた時の条件つき期待値は
$$ E[\widetilde{\theta}_n | X_i] = \frac{\sum_{i = 1}^n E[\varepsilon_i^2] \theta(1 + X_i)}{\sum_{i = 1}^n (1 + X_i)} = \theta. $$
よって$E[\widetilde{\theta}_n] = E[E[\widetilde{\theta}_n | X_i]] = \theta$となり示された.
(4)
$$ E[\widetilde{\theta}_n^2 | X_i] = \frac{\theta^2}{(\sum_{i = 1}^n (1 + X_i))^2} \bigg( 3\sum_{i = 1}^n (1 + X_i)^2 + \sum_{i \not= j} (1 + X_i)(1 + X_j)\bigg) $$
であるから,$x_i = 1 + X_i$とおけば
$$ \frac{3\sum_i x_i^2 + \sum_{i \not= j} x_i x_j}{(\sum_i x_i)^2} - \frac{n + 2}{n} = \frac{2(n - 1) \sum_i x_i^2 - 2\sum_{i \not= j} x_i x_j}{n(\sum_i x_i)^2}. \tag{$\ast$} $$
ここで対角成分が$n - 1$でそれ以外の成分が$-1$$n$次対称行列を$A$とおく.${}^t (1, \dots, 1)$$A$の固有値$0$に対応する固有ベクトルである.また$e_i \in \RR^n$$\RR^n$の標準基底とする時$Ae_i = ne_i - (e_1 + \cdots + e_n)$より$A(e_1 - e_i) = n(e_1 - e_i)$だから,$e_1 - e_i$$A$の固有値$n$に対応する固有ベクトルである.よって$A$は正定値なので$(\ast)$は非負である.従って$E[\widetilde{\theta}_n^2 | X_i] \geq E[\widehat{\theta}_n^2]$なので$E[\widetilde{\theta}_n^2] \geq E[\widehat{\theta}_n^2].$$\widetilde{\theta}_n, \widehat{\theta}_n$$\theta$の不偏推定量であることとあわせて$V[\widetilde{\theta}_n] \geq V[\widehat{\theta}_n].$

投稿日:326
更新日:422
OptHub AI Competition

この記事を高評価した人

高評価したユーザはいません

この記事に送られたバッジ

バッジはありません。

投稿者

delta
0
1227
大学院入試の解答のまとめ(記事にしたもの含む)は下のURLから

コメント

他の人のコメント

コメントはありません。
読み込み中...
読み込み中