東大数理の院試(2024年度専門B問17)の解答です.
自分が作った解答は
ここ
に置いてあります.
$\NN = \{ 1, 2, \dots\}$とする.確率空間$(\Omega, \mathcal{F}, P)$上で定義された確率変数列
$$
U_1, U_2, U_3, \dots, V_1, V_2, V_3, \dots
$$
は独立であるとする.$U_i \, (i \in \NN)$は開区間$(0, 1)$に値をとり,
$$
P(U_i \leq x) = x \qquad (x \in (0, 1))
$$
を満たし,$V_j \, (j \in \NN)$は集合$\{ 0, 1\}$に値をとり,
$$
P(V_j = 1) = P(V_j = 0) = \frac{1}{2}
$$
を満たすとする.各$i \in \NN$に対して
$$
X_i = U_i V_i + U_{i + 1}(1 - V_i), \qquad
Y_i = -\log X_i
$$
とおく.
(1) 確率変数$Y_1$の平均,分散および分布の確率密度関数を求めよ.
(2) 相異なる$i, j \in \NN$に対して,$Y_i$と$Y_j$の共分散$\Cov[Y_i, Y_j]$を求めよ.
(3) 各$n \in \NN$に対して
$$
M_n = \frac{1}{n} \sum_{i = 1}^n Y_i
$$
とおく.$n \to \infty$のとき$M_n$が確率収束することを示せ.
(4) 各$n \in \NN$に対して
$$
L_n = \bigg( \prod_{i = 1}^n X_i \bigg)^{1 / n}
$$
とおく.$n \to \infty$のとき$L_n$が確率収束することを示せ.
(1)
$X_1$は$(0, 1)$に値を取る.任意の$x \in (0, 1)$に対し
$$
P(X_1 \leq x)
= E[X_1 1_{(0, x)}]
= \frac{1}{2} E[U_2 1_{(0, x)}] + \frac{1}{2} E[U_1 1_{(0, x)}]
= P(U_1 \leq x)
$$
だから,$X_1 \sim U(0, 1)$である.よって$Y_1$は$(0, \infty)$に値を取り,任意の$x > 0$に対し
$$
P(Y_1 \leq x)
= P(X_1 \geq e^{-x})
= 1 - e^{-x}
$$
だから,$Y_1$の確率密度関数は$e^{-x} 1_{(0, \infty)}(x).$また$k \in \NN$に対し
$$
E[Y_1^k]
= \int_0^\infty x^k e^{-x} dx
= \Gamma(k + 1)
= k!
$$
だから$E[Y_1] = 1, V[Y_1] = E[Y_1^2] - E[Y_1]^2 = 1.$
(2)
$\bullet$ $|i - j| \geq 2$の時:
仮定から$X_i$と$X_j$は独立なので$Y_i$と$Y_j$も独立.よって$\Cov[Y_i, Y_j] = 0.$
$\bullet$ $|i - j| = 1$の時:
$j = i + 1$として良い.
\begin{align*}
E[Y_i Y_{i + 1}]
&= E[\log(U_i V_i + U_{i + 1}(1 - V_i)) \log(U_{i + 1}V_{i + 1} + U_{i + 2}(1 - V_{i + 1}))] \\
&= \frac{1}{4} E[\log U_{i + 1} \log U_{i + 2}] + \frac{1}{4} E[\log U_{i + 1} \log U_{i + 1}]
+ \frac{1}{4} E[\log U_i \log U_{i + 2}] + \frac{1}{4} E[\log U_i \log U_{i + 1}] \\
&= \frac{1}{4} E[Y_i]^2 + \frac{1}{4} E[Y_i^2]
+ \frac{1}{4} E[Y_i^2] + \frac{1}{4} E[Y_i^2]
= \frac{7}{4}
\end{align*}
より
$\Cov[Y_i, Y_{i + 1}] = E[Y_i Y_{i + 1}] - E[Y_i]E[Y_{i + 1}] = 3 / 4.$
(3)
任意に$\varepsilon > 0$を取ると,$E[M_n] = 1$と Chebyshev の不等式から
$$
P(|M_n - 1| \geq \varepsilon)
\leq \frac{1}{\varepsilon^2} V[M_n]
$$
である.これと
\begin{align*}
V[M_n]
&= E[M_n^2] - 1
= \frac{1}{n^2} \bigg( \sum_{i = 1}^n E[Y_i^2] + \sum_{|i - j| = 1} E[Y_i Y_j]
+ \sum_{|i - j| \geq 2} E[Y_i Y_j]\bigg) - 1 \\
&= \frac{1}{n^2} \bigg( n \cdot 2 + 2(n - 1) \cdot \frac{7}{4} + (n^2 - 2(n - 1) - n) \cdot 1 \bigg) - 1
\to 0 \quad (n \to \infty)
\end{align*}
より示された.
(4)
$$
\log L_n
= \frac{1}{n} \sum_{i = 1}^n \log X_i
= -\frac{1}{n} \sum_{i = 1}^n Y_i
= -M_n
$$
より$L_n = e^{-M_n}$である.関数$f(x) = e^{-x}$は$\RR$上連続だから,(3) とあわせて$L_n$は$n \to \infty$の時$e^{-1}$に確率収束する.