「Tauberの定理」と呼ばれる、次の命題があります。
複素数列$\{a_n\}_{n=0}^{\infty}$が
$$
\lim_{n \to \infty}na_n=0
$$
及び
$$
\lim_{x\to-1}\sum_{n=0}^{\infty}a_nx^n=\alpha\in\mathbb{C}
$$
を満たすとき
$$
\sum_{n=0}^{\infty}a_n=\alpha
$$
が成り立つ.
これは次のように容易に証明できます。
$N\in\mathbb{N}$とし、$x=1-\dfrac{1}{N}$とおく。三角不等式より
\begin{align*}
\left|\sum_{n=0}^{N}a_n-f(x)\right|&=\left|\sum_{n=0}^{N}a_n-\sum_{n=0}^{N}a_nx^n-\sum_{n=N+1}^{\infty}a_nx^n\right| \\
&\le\left|\sum_{n=0}^{N}a_n\left(1-x^n\right)\right|+\left|\sum_{n=N+1}^{\infty}a_nx^n\right| \\
&\le\sum_{n=0}^{N}|a_n|\left(1-x^n\right)+\sum_{n=N+1}^{\infty}|a_n|x^n
\end{align*}
となるが、最右辺第一項は
$$
1-x^n=(1-x)\sum_{k=1}^{n}x^{k-1}<(1-x)\sum_{k=1}^{n}1=n(1-x)
$$
より
$$
\sum_{n=0}^{N}|a_n|\left(1-x^n\right)<(1-x)\sum_{n=0}^{N}n|a_n|
$$
と評価でき、$x=1-\dfrac{1}{N}$を代入すると、$\displaystyle \lim_{n\to\infty}na_n=0$及びCesaro平均より
$$
(1-x)\sum_{n=0}^{N}n|a_n|=\frac{1}{N}\sum_{n=0}^{N}n|a_n|\to0\quad(N\to\infty)
$$
を得る.また,第二項は
\begin{align*}
\sum_{n=N+1}^{\infty}|a_n|x^n&=\sum_{n=N+1}^{\infty}n|a_n|\cdot\frac{1}{n}x^n \\
&<\frac{1}{n}\sum_{n=N+1}^{\infty}n|a_n|x^n \\
&\le \frac{1}{n}\sum_{n=N+1}^{\infty}\left(\sup_{k\ge N+1}k|a_k|\right)x^n \\
&<\frac{1}{n}\sum_{n=0}^{\infty}x^n\left(\sup_{k\ge N+1}k|a_k|\right) \\
&=\sup_{k\ge N+1}k|a_k| \\
&\to\limsup_{n\to\infty}n|a_n|\quad(N\to\infty) \\
&=0
\end{align*}
となる。以上から
$$
\lim_{N\to\infty}\sum_{n=0}^{N}a_n=\lim_{N\to\infty}f(x)
$$
すなわち
$$
\sum_{n=0}^{\infty}a_n=\alpha
$$
が従う。
$\displaystyle \lim_{n\to\infty}na_n=0$が上手く効いていますね。
さて、Littlewoodはこの条件を弱めることに成功し、次の定理を得ました。
複素数列$\{a_n\}_{n=0}^{\infty}$が
$$
a_n=O\left(\frac{1}{n}\right)
$$
及び
$$
\lim_{x\to-1}\sum_{n=0}^{\infty}a_nx^n=\alpha\in\mathbb{C}
$$
を満たすとき
$$
\sum_{n=0}^{\infty}a_n=\alpha
$$
が成り立つ.
この定理のLittlewood自身による証明は非常に複雑で、定理1に比べて難解なものになっています。しかし、その後Karamataという数学者によって、比較的簡単な証明が得られました。それを紹介します。
先に補題を2つ提示しておきましょう。
定数$c\in(0,1)$に対して、関数$g\colon[0,1]\to\{0,1\},\ h\colon[0,1]\to\mathbb{R}$を
$$
g(t):=\begin{cases}
0 & (0\le t< c) \\
1 & (c\le t\le1)
\end{cases},\qquad h(t):=\frac{g(t)-t}{t(1-t)}
$$
で定めると、任意の$\varepsilon>0$に対し,多項式$P_{\varepsilon},p_{\varepsilon}$が存在して
$$
p_{\varepsilon}\le h(t)\le P_{\varepsilon}(t)\quad(\forall t\in[0,1]),\qquad\int_{0}^{1}\{P_{\varepsilon}(t)-h(t)\}dt<\varepsilon,\qquad \int_{0}^{1}\{h(t)-p_{\varepsilon}(t)\}dt<\varepsilon
$$
が成り立つ。
定義から$h(t)$は端点$t=0,1$でもキチンと値を持ちます。
Weierstrassの多項式近似定理(実はこの補題の証明に用います)とよく似ていますが、$h$のような不連続関数については$L^1$ノルムでないと近似できません(一般の$L^p$でも多分近似できます)。
次の極限が成り立つ。ただし,$P$は任意の多項式とする。
$$
\displaystyle\lim_{x\to1-0}(1-x)\sum_{n=1}^{\infty}x^nP(x^n)=\int_{0}^{1}P_{\varepsilon}(t)dt,\qquad\displaystyle\lim_{x\to1-0}(1-x)\sum_{n=1}^{\infty}x^nh(x^n)=\int_{0}^{1}h(t)dt
$$
それぞれの補題の証明は後で行います。では定理2の証明を見てゆきましょう。
以下、$\varepsilon>0$を任意とする。$\displaystyle f(x):=\sum_{n=0}^{\infty}a_nx^n$とおく。まず、$\displaystyle \lim_{n\to\infty}na_n$が収束するので、ある定数$C>0$が存在し、任意の$n\in\mathbb{N}$で$|a_n|<\dfrac{C}{n}$が成り立つ。また
$$
\lim_{n\to\infty}\left|\frac{a_{n+1}}{a_n}\right|=1
$$
より、$f$の収束半径は$1$である。
さて、補題3における関数$g,h$を
$$
g(t):=\begin{cases}
0 & \left(0\le t< e^{-1}\right) \\
1 & \left(e^{-1}\le t\le1\right)
\end{cases}
$$
により定める(すなわち$c=e^{-1}$)と、$N\in\mathbb{N}$に対し
$$
\sum_{n=0}^{\infty}a_ng\left(e^{-\frac{n}{N}}\right)=\sum_{n=0}^{N}a_n
$$
となる。ここで、補題3における$P_{\varepsilon}$に対し、多項式$Q$を
$$
Q(t):= t(1-t)P_{\varepsilon}(t)+t
$$
で定めると
$$
Q(1)=1,\qquad Q(t)\ge g(t),\qquad \frac{Q(t)-g(t)}{1-t}=t\{P_{\varepsilon}(t)-h(t)\}\quad(\forall t\in[0,1])
$$
となる。さらに、多項式$Q$を$\displaystyle Q(x)=\sum_{k}c_kx^k$とおくと、$f$の収束半径が1であることから、$|x|<1$のとき次のように和の交換が可能で、$x\to1-0$で
$$
\sum_{n=0}^{\infty}a_nQ(x^n)=\sum_{n=0}^{\infty}a_n\sum_{k}c_kx^{kn}=\sum_{k}c_k\sum_{n=0}^{\infty}a_n(x^k)^n=\sum_{k}c_kf\left(x^k\right)\to\sum_{k}c_k\alpha=Q(1)\alpha=\alpha
$$
となる。よって$x=e^{-\frac{1}{N}}$とおけば、ある$N_1\in\mathbb{N}$が存在して,$N>N_1$なら
$$
\left|\sum_{n=0}^{\infty}a_nQ\left(e^{-\frac{n}{N}}\right)-\alpha\right|<\varepsilon
$$
が成り立つ。
また、補題4より$x=e^{-\frac{1}{N}}$とおけば、ある$N_2\in\mathbb{N}$が存在して、$N>N_2$なら
$$
\left|\left(1-e^{-\frac{1}{N}}\right)\sum_{n=1}^{\infty}e^{-\frac{n}{N}}P_{\varepsilon}\left(e^{-\frac{n}{N}}\right)-\int_{0}^{1}P_{\varepsilon}(t)dt\right|<\varepsilon \\
\left|\left(1-e^{-\frac{1}{N}}\right)\sum_{n=1}^{\infty}e^{-\frac{n}{N}}h\left(e^{-\frac{n}{N}}\right)-\int_{0}^{1}h(t)dt\right|<\varepsilon
$$
が成立する。
以上から、$N>\max\{N_1,N_2\}$のとき
\begin{align*}
\left|\sum_{n=0}^{N}a_n-\alpha\right|&=\left|\sum_{n=0}^{\infty}a_ng\left(e^{-\frac{n}{N}}\right)-\alpha\right| \\
&\le\left|\sum_{n=0}^{\infty}a_ng\left(e^{-\frac{n}{N}}\right)-\sum_{n=0}^{\infty}a_nQ\left(e^{-\frac{n}{N}}\right)\right|+\left|\sum_{n=0}^{\infty}a_nQ\left(e^{-\frac{n}{N}}\right)-\alpha\right| \\
&=\left|\sum_{n=1}^{\infty}a_n\left\{g\left(e^{-\frac{n}{N}}\right)-Q\left(e^{-\frac{n}{N}}\right)\right\}\right|+\left|\sum_{n=0}^{\infty}a_nQ\left(e^{-\frac{n}{N}}\right)-\alpha\right| \\
&<\sum_{n=1}^{\infty}|a_n|\left|g\left(e^{-\frac{n}{N}}\right)-Q\left(e^{-\frac{n}{N}}\right)\right|+\varepsilon \le\sum_{n=1}^{\infty}\frac{C}{n}\left\{Q\left(e^{-\frac{n}{N}}\right)-g\left(e^{-\frac{n}{N}}\right)\right\}+\varepsilon \\
&\le C\sum_{n=1}^{\infty}\frac{1-e^{-\frac{1}{N}}}{1-e^{-\frac{n}{N}}}\left\{Q\left(e^{-\frac{n}{N}}\right)-g\left(e^{-\frac{n}{N}}\right)\right\}+\varepsilon\qquad\left(\displaystyle\because \frac{1-e^{-\frac{n}{N}}}{1-e^{-\frac{1}{N}}}=\sum_{k=1}^{n}e^{-\frac{k-1}{N}}\le n\right) \\
&=C\left(1-e^{-\frac{1}{N}}\right)\sum_{n=1}^{\infty}e^{-\frac{n}{N}}\left\{P_{\varepsilon}\left(e^{-\frac{n}{N}}\right)-h\left(e^{-\frac{n}{N}}\right)\right\}+\varepsilon \\
&=C\left\{\left(1-e^{-\frac{1}{N}}\right)\sum_{n=1}^{\infty}e^{-\frac{n}{N}}P_{\varepsilon}\left(e^{-\frac{n}{N}}\right)-\int_{0}^{1}P_{\varepsilon}(t)dt\right\} \\
&\qquad-C\left\{\left(1-e^{-\frac{1}{N}}\right)\sum_{n=1}^{\infty}e^{-\frac{n}{N}}h\left(e^{-\frac{n}{N}}\right)-\int_{0}^{1}h(t)dt\right\}+C\int_{0}^{1}\{P_{\varepsilon}(t)-h(t)\}dt+\varepsilon \\
&<(3C+1)\varepsilon
\end{align*}
となる。従って
$$
\sum_{n=0}^{\infty}a_n=\alpha
$$
であることが示された。
どうでしたでしょうか。関数$g$の定め方が秀逸ですね。
では、最後に補題の証明を行います。
$\varepsilon>0$を任意にとる。まず$P_\varepsilon$について示す。$y=h(t)$は、$0\le t< c$と$c\le t\le1$において共に単調減少し
$$
h(c-0):=\lim_{t\to c-0}h(t)< h(c)
$$
を満たす。これより、ある$\delta>0$が存在し。$0< c-t\le\delta$なら
$$
0< h(t)-h(c-0)\le\varepsilon
$$
が成り立つ。また、$\varepsilon\to+0$のとき$\delta\to+0$なので、$\delta$を
$$\delta<\min\left\{\frac{\varepsilon}{h(c)-h(c-0)},\frac{1}{2}\right\}
$$
を満たすようにとれる。ここで、単調増加な一次関数$L$を
$$L(c-\delta)=h(c-\delta)+\varepsilon,\qquad L(c)=h(c)+\varepsilon
$$
を満たすように定めると、$c-\delta\le t< c$のとき
\begin{align*}
L(t)-h(t)&=L(t)-h(c-\delta)+h(c-\delta)-h(c-0)+h(c-0)-h(t) \\
&=L(t)-\{L(c-\delta)-\varepsilon\}+\{h(c-\delta)-h(c-0)\}-\{h(t)-(c-0)\} \\
&< L(t)-L(c-\delta)+\varepsilon+\varepsilon < L(c)-L(c-\delta)+2\varepsilon \\
&=h(c)-h(c-\delta)+2\varepsilon \\
&=h(c)-h(c-0)+h(c-0)-h(c-\delta)+2\varepsilon \\
&<\frac{\varepsilon}{\delta}+2\varepsilon<\frac{2\varepsilon}{\delta}
\end{align*}
が成り立つ。さらに、関数$M\colon[0,1]\to\mathbb{R}$を
$$
M(t)=\begin{cases}
h(x)+\varepsilon & (0\le t< c-\delta,c< t\le1) \\
\max\{L(t),h(t)+\varepsilon\} & (c-\delta\le t\le c)
\end{cases}
$$
で定めると
\begin{align*}
\int_{0}^{1}\{M(t)-h(t)\}dt&=\int_{0}^{c-\delta}\{M(t)-h(t)\} dt+\int_{c-\delta}^{c}\{M(t)-h(t)\}dt+\int_{c}^{1}\{M(t)-h(t)\}dt \\
&=\int_{0}^{c-\delta}\varepsilon dt+\int_{c-\delta}^{c}\{K(t)-h(t)\}dt+\int_{c}^{1}\varepsilon dt \\
&<\varepsilon+\int_{c-\delta}^{c}\{M(t)-h(t)\}dt \\
&\le\varepsilon+\int_{c-\delta}^{c}\max\{L(t)-h(t),\varepsilon\}dt \\
&\le\varepsilon+\int_{c-\delta}^{c}\max\{\frac{2\varepsilon}{\delta},\varepsilon\}dt \\
&=\varepsilon+\delta\cdot\frac{2\varepsilon}{\delta}\quad\left(\because \delta<\dfrac{1}{2}\right) \\
&=3\varepsilon
\end{align*}
を得る。また$M$は連続なので、Weierstrassの近似定理より、多項式$P_{\varepsilon}$が存在して
$$
|M(t)-P_{\varepsilon}(t)|\le\varepsilon
$$
が成り立つ。常に$M(t)\ge h(t)+\varepsilon$が成り立つから、以上より
$$
h(t)\le M(t)-\varepsilon\le P_{\varepsilon}(t)
$$
及び
$$
\int_{0}^{1}\{P_{\varepsilon}(t)-h(t)\}dt=\int_{0}^{1}\{P_{\varepsilon}(t)-M(t)\}dt+\int_{0}^{1}\{M(t)-h(t)\}dt<4\varepsilon
$$
が従い、示された。
次に$p_{\varepsilon}$について示す。$\varepsilon>0,\delta>0$を$P_\varepsilon$のときと同じようにとり、単調増加な一次関数$l$を
$$
l(c-\delta)=h(c-\delta)-\varepsilon,\qquad l(e^{-1})=h(c)-\varepsilon
$$
を満たすように定める。すると、上と同様に評価することで、$c-\delta\le t< c$において
$$
h(t)-l(t)<\frac{2\varepsilon}{\delta}
$$
が成り立つことが分かる。さらに、関数$m\colon[0,1]\to\mathbb{R}$を
$$
m(t)=\begin{cases}
h(x)-\varepsilon & (0\le t< c-\delta,c< t\le1) \\
\min\{l(t),h(t)-\varepsilon\} & (c-\delta\le t\le c)
\end{cases}
$$
で定めると、関数$M$のときと同様にして
$$
\int_{0}^{1}\{h(t)-m(t)\}dt<3\varepsilon
$$
を得る。また$m$は連続なので、Weierstrassの近似定理より、多項式$p_{\varepsilon}$が存在して
$$
|m(t)-p_{\varepsilon}(t)|\le\varepsilon
$$
が成り立つ。常に$m(t)\le h(t)-\varepsilon$が成り立つから、以上より
$$
h(t)\ge m(t)+\varepsilon\ge p_{\varepsilon}(t)
$$
及び
$$
\int_{0}^{1}\{h(t)-p_{\varepsilon}(t)\}dt=\int_{0}^{1}\{h(t)-m(t)\}dt+\int_{0}^{1}\{m(t)-p_{\varepsilon}(t)\}dt<4\varepsilon
$$
が従い、示された。
$\displaystyle P(x)=\sum_{k}b_kx^k$とおくと、$|x|<1$に対し、$x\to1-0$で
\begin{align*}
(1-x)\sum_{n=1}^{\infty}x^nP\left(x^n\right)&=(1-x)\sum_{n=0}^{\infty}x^nP\left(x^n\right)-(1-x)P(1) \\
&=(1-x)\sum_{n=0}^{\infty}\sum_{k}b_kx^{(k+1)n}-(1-x)P(1) \\
&=(1-x)\sum_{k}b_k\sum_{n=0}^{\infty}\left(x^{k+1}\right)^n-(1-x)P(1) \\
&=\sum_{k}b_k\frac{1-x}{1-x^{k+1}}-(1-x)P(1) \\
&\to\sum_{k}\frac{b_k}{k+1}=\sum_{k}b_k\int_{0}^{1}t^kdt=\int_{0}^{1}\sum_{k}b_kt^k=\int_{0}^{1}P(t)dt
\end{align*}
となり一つ目の極限が示された。
また、$0< x<1$に対し、$x\to1-0$において
$$
(1-x)\sum_{n=1}^{\infty}x^nh\left(x^n\right)-\int_{0}^{1}h(t)dt\le(1-x)\sum_{n=1}^{\infty}x^nP_{\varepsilon}\left(x^n\right)-\int_{0}^{1}h(t)dt\to\int_{0}^{1}\{P_{\varepsilon}(t)-h(t)\}dt<\varepsilon
$$
及び
$$
(1-x)\sum_{n=1}^{\infty}x^nh\left(x^n\right)-\int_{0}^{1}h(t)dt\ge(1-x)\sum_{n=1}^{\infty}x^np_{\varepsilon}\left(x^n\right)-\int_{0}^{1}h(t)dt\to\int_{0}^{1}\{p_{\varepsilon}(t)-h(t)\}dt>-\varepsilon
$$
となるが、$\varepsilon>0$は任意であったので、$\varepsilon\to+0$とすれば
$$
\lim_{x\to1-0}\left\{(1-x)\sum_{n=1}^{\infty}x^nh\left(x^n\right)-\int_{0}^{1}h(t)dt\right\}=0$$
となり2つ目の極限も示された。
これにて定理2の証明は完了です。疲れたー。。。
ちなみに、$a_n$の条件を定理1と2の間の条件にすると証明はどうなるでしょうか。つまり
定理2において、$\{a_n\}_{n=0}^{\infty}$の満たす条件「$\displaystyle\lim_{n \to \infty}na_n=O\left(\frac{1}{n}\right)$」を「$\displaystyle\lim_{n \to \infty}na_n$がある値に収束する」に変えると、定理の証明はどうなるか?
実は、これに関して次の命題が得られます。
複素数列$\{a_n\}_{n=0}^{\infty}$について、$\displaystyle\lim_{n \to \infty}na_n$及び$\displaystyle\lim_{x\to-1}\sum_{n=0}^{\infty}a_nx^n$がそれぞれ収束するとき、$na_n$の極限値は$0$に限る。
$a_n=s_n+t_ni\ (s_n,t_n\in\mathbb{R})$とし、$\displaystyle \lim_{n\to\infty}ns_n=s,\ \lim_{n\to\infty}nt_n=t$とおく(すなわち、$\displaystyle \lim_{n\to\infty}na_n=s+ti\ (s,t\in\mathbb{R})$)。また、$\displaystyle f(x):=\sum_{n=0}^{\infty}a_nx^n$とおく。このとき
$$
f(x)=\sum_{n=0}^{\infty}a_nx^n=\sum_{n=0}^{\infty}s_nx^n+\left(\sum_{n=0}^{\infty}t_nx^n\right)i
$$
となる。ここで$s>0$と仮定すると、$\displaystyle \lim_{n\to\infty}ns_n=s$より、任意の$\varepsilon>0$に対してある$N\in\mathbb{N}$が存在し、$n>N$なら
$$
|ns_n-s|<\varepsilon
$$
が成り立つ。よって、$\varepsilon\in(0,s)$を満たすように$\varepsilon$をとると
$$
ns_n>s-\varepsilon>0
$$
となる。この$\varepsilon$を固定し、それに対する$N$をとると
\begin{align*}
\sum_{n=0}^{\infty}s_nx^n&=\sum_{n=0}^{N}s_nx^n+\sum_{n=N+1}^{\infty}s_nx^n \\
&>\sum_{n=0}^{N}s_nx^n+\sum_{n=N+1}^{\infty}\frac{s-\varepsilon}{n}x^n \\
&=\sum_{n=0}^{N}s_nx^n-(s-\varepsilon)\sum_{n=1}^{N}\frac{1}{n}x^n+(s-\varepsilon)\sum_{n=1}^{\infty}\frac{x^n}{n} \\
&=\sum_{n=0}^{N}s_nx^n-(s-\varepsilon)\sum_{n=1}^{N}\frac{1}{n}x^n-(s-\varepsilon)\log(1-x) \\
&=\sum_{n=0}^{N}s_nx^n-(s-\varepsilon)\sum_{n=1}^{N}\frac{1}{n}x^n+(s-\varepsilon)\log\left(\frac{1}{1-x}\right) \\
&\to\infty\quad(x\to1-0)
\end{align*}
となり、$\displaystyle \lim_{x\to1-0}f(x)$が収束することに矛盾する。$s<0$のときも同様の議論により矛盾が導かれ、また$t$についても同様の結果を得る。これより、$\displaystyle \lim_{n\to\infty}na_n$が収束するならば、その値は$0$に限られることが示された。
このように、$na_n$の極限値が$0$以外だと、級数$f(x)$が$\log$の速度で発散してしまうので、結局極限値は0となって、定理1の証明に帰着されます。
これにて終わりです。誤字脱字や、数学的誤りなどがあれば教えて頂けると幸いです。