0

東大数理院試2024年度専門B問17解答

46
0
$$\newcommand{Aut}[0]{\operatorname{Aut}} \newcommand{CC}[0]{\mathbb{C}} \newcommand{Cov}[0]{\operatorname{Cov}} \newcommand{FF}[0]{\mathbb{F}} \newcommand{Gal}[0]{\mathrm{Gal}} \newcommand{IIm}[0]{\operatorname{Im}} \newcommand{Ker}[0]{\operatorname{Ker}} \newcommand{NN}[0]{\mathbb{N}} \newcommand{PP}[0]{\mathbb{P}} \newcommand{QQ}[0]{\mathbb{Q}} \newcommand{RR}[0]{\mathbb{R}} \newcommand{RRe}[0]{\operatorname{Re}} \newcommand{tr}[0]{\operatorname{tr}} \newcommand{ZZ}[0]{\mathbb{Z}} $$

東大数理の院試(2024年度専門B問17)の解答です.
自分が作った解答は ここ に置いてあります.

(東大数理2024年度専門B問17)

$\NN = \{ 1, 2, \dots\}$とする.確率空間$(\Omega, \mathcal{F}, P)$上で定義された確率変数列
$$ U_1, U_2, U_3, \dots, V_1, V_2, V_3, \dots $$
は独立であるとする.$U_i \, (i \in \NN)$は開区間$(0, 1)$に値をとり,
$$ P(U_i \leq x) = x \qquad (x \in (0, 1)) $$
を満たし,$V_j \, (j \in \NN)$は集合$\{ 0, 1\}$に値をとり,
$$ P(V_j = 1) = P(V_j = 0) = \frac{1}{2} $$
を満たすとする.各$i \in \NN$に対して
$$ X_i = U_i V_i + U_{i + 1}(1 - V_i), \qquad Y_i = -\log X_i $$
とおく.
(1) 確率変数$Y_1$の平均,分散および分布の確率密度関数を求めよ.
(2) 相異なる$i, j \in \NN$に対して,$Y_i$$Y_j$の共分散$\Cov[Y_i, Y_j]$を求めよ.
(3) 各$n \in \NN$に対して
$$ M_n = \frac{1}{n} \sum_{i = 1}^n Y_i $$
とおく.$n \to \infty$のとき$M_n$が確率収束することを示せ.
(4) 各$n \in \NN$に対して
$$ L_n = \bigg( \prod_{i = 1}^n X_i \bigg)^{1 / n} $$
とおく.$n \to \infty$のとき$L_n$が確率収束することを示せ.

(1)
$X_1$$(0, 1)$に値を取る.任意の$x \in (0, 1)$に対し
$$ P(X_1 \leq x) = E[X_1 1_{(0, x)}] = \frac{1}{2} E[U_2 1_{(0, x)}] + \frac{1}{2} E[U_1 1_{(0, x)}] = P(U_1 \leq x) $$
だから,$X_1 \sim U(0, 1)$である.よって$Y_1$$(0, \infty)$に値を取り,任意の$x > 0$に対し
$$ P(Y_1 \leq x) = P(X_1 \geq e^{-x}) = 1 - e^{-x} $$
だから,$Y_1$の確率密度関数は$e^{-x} 1_{(0, \infty)}(x).$また$k \in \NN$に対し
$$ E[Y_1^k] = \int_0^\infty x^k e^{-x} dx = \Gamma(k + 1) = k! $$
だから$E[Y_1] = 1, V[Y_1] = E[Y_1^2] - E[Y_1]^2 = 1.$
(2)
$\bullet$ $|i - j| \geq 2$の時:
仮定から$X_i$$X_j$は独立なので$Y_i$$Y_j$も独立.よって$\Cov[Y_i, Y_j] = 0.$
$\bullet$ $|i - j| = 1$の時:
$j = i + 1$として良い.
\begin{align*} E[Y_i Y_{i + 1}] &= E[\log(U_i V_i + U_{i + 1}(1 - V_i)) \log(U_{i + 1}V_{i + 1} + U_{i + 2}(1 - V_{i + 1}))] \\ &= \frac{1}{4} E[\log U_{i + 1} \log U_{i + 2}] + \frac{1}{4} E[\log U_{i + 1} \log U_{i + 1}] + \frac{1}{4} E[\log U_i \log U_{i + 2}] + \frac{1}{4} E[\log U_i \log U_{i + 1}] \\ &= \frac{1}{4} E[Y_i]^2 + \frac{1}{4} E[Y_i^2] + \frac{1}{4} E[Y_i^2] + \frac{1}{4} E[Y_i^2] = \frac{7}{4} \end{align*}
より
$\Cov[Y_i, Y_{i + 1}] = E[Y_i Y_{i + 1}] - E[Y_i]E[Y_{i + 1}] = 3 / 4.$
(3)
任意に$\varepsilon > 0$を取ると,$E[M_n] = 1$と Chebyshev の不等式から
$$ P(|M_n - 1| \geq \varepsilon) \leq \frac{1}{\varepsilon^2} V[M_n] $$
である.これと
\begin{align*} V[M_n] &= E[M_n^2] - 1 = \frac{1}{n^2} \bigg( \sum_{i = 1}^n E[Y_i^2] + \sum_{|i - j| = 1} E[Y_i Y_j] + \sum_{|i - j| \geq 2} E[Y_i Y_j]\bigg) - 1 \\ &= \frac{1}{n^2} \bigg( n \cdot 2 + 2(n - 1) \cdot \frac{7}{4} + (n^2 - 2(n - 1) - n) \cdot 1 \bigg) - 1 \to 0 \quad (n \to \infty) \end{align*}
より示された.
(4)
$$ \log L_n = \frac{1}{n} \sum_{i = 1}^n \log X_i = -\frac{1}{n} \sum_{i = 1}^n Y_i = -M_n $$
より$L_n = e^{-M_n}$である.関数$f(x) = e^{-x}$$\RR$上連続だから,(3) とあわせて$L_n$$n \to \infty$の時$e^{-1}$に確率収束する.

投稿日:327
OptHub AI Competition

この記事を高評価した人

高評価したユーザはいません

この記事に送られたバッジ

バッジはありません。

投稿者

delta
0
1227
大学院入試の解答のまとめ(記事にしたもの含む)は下のURLから

コメント

他の人のコメント

コメントはありません。
読み込み中...
読み込み中