0
現代数学解説
文献あり

Regularized Max Function

46
0
$$$$

ここではDemの補題 5.18(43ページ)で紹介されている regularized max function について解説する.一言でいうと,軟化子をうまく取れば$\max$との合成積をとったときにうまい性質をもってくれる,という話である.

簡単のために,まずは2つの滑らかな関数 $u_1,u_2\colon\mathbb{R}\to\mathbb{R}$ を考えよう.これらの最大値をとった関数$\max\{u_1,u_2\}$は一般には滑らかにならない.それは$\max\{x,y\}$が滑らかでないことに由来すると考えられる.そこで,次のような性質をもつ関数$M(x,y)$があれば,$\max$$M$で代用することにより“滑らかな最大値”を与える関数が得られそうである.

  • $M$$C^\infty$級の関数
  • $\max\{x,y\}\leqq M(x,y)$(あわよくば,上からも抑えたい)

なお,多変数関数論や複素幾何では(多重)劣調和関数が大切になり,各変数について単調増加で,しかも凸な関数と(多重)劣調和関数の組との合成は再び劣調和関数になるから

  • $M$ は各変数について単調増加で,しかも凸である

という条件もついていれば文句なしである.
そして(変数の数は一般で)これに肯定的な答えを与えてくれるものが,regularized max function である.

滑らかな関数$\theta\colon\mathbb{R}\to\mathbb{R}_{\geq0}$は台が$[-1,1]$に含まれ,$\int_\mathbb{R}\theta(h)dh=1$, $\int_\mathbb{R}h\theta(h)dh=0$ をみたすものとする.
任意の非負の実数の組$\eta=(\eta_1,\dots,\eta_n)$に対し,関数
\begin{align*} M_\eta(t_1,\dots,t_n)=\int_{\mathbb{R}^n}\max\{t_1-h_1,\dots,t_n-h_n\}\prod_{1\leq j\leq n}\frac{1}{\eta_j}\theta\left(\frac{h_j}{\eta_j}\right)dh_1\cdots dh_n,\qquad t_j\in\mathbb{R} \end{align*}
は次の性質をもつ:
(1) $M$は滑らかで,各変数について単調増加であり,さらに凸である.
(2) $\max\{t_1,\dots,t_n\}\leq M_\eta(t_1,\dots,t_n)\leq \max\{t_1+\eta_1,\dots,t_n+\eta_n\}$が成り立つ.
(3) $u_1,\dots,u_n\colon\mathbb{C}^m\to\mathbb{R}\cup\{-\infty\}$ を多重劣調和関数とするとき,$M_\eta(u_1,\dots,u_n)$も多重劣調和関数である.

  1. 変数変換 $h_j'=t_j-h_j$と積分記号下の微分により滑らかであることがわかる.$t_j\leq t_j'$のとき$\max\{t_1-h_1,\dots,t_j-h_j,\dots,t_n-h_n\}\leq\max\{t_1-h_1,\dots,t_j'-h_j,\dots,t_n-h_n\}$であることから各変数について単調増加であることが従い,凸性も$\max$が凸であることから分かる.
  2. 左側の不等式は,各$j$について$\max\{t_k-h_k\}\geq t_j-h_j$であることから分かる.右側を示す.$\theta$の台に注目すれば$\prod_j[-\eta_j,\eta_j]$において積分を考えれば良いと分かる.このとき$\max\{t_j-h_j\}\leq\max\{t_j+\eta_j\}$であり,これは$h_j$によらないから積分の外に出て,残った積分は$\theta$の仮定により$1$である.
  3. 次の等式により分かる:
    \begin{align*} \sum_{j,k=1}^m\frac{\partial^2M_\eta(u_1,\dots,u_n)}{\partial z_j\partial\overline{z_j}}w_j\overline{w_k} &= \sum_{p,q=1}^n\frac{\partial^2M}{\partial x_p\partial x_q}(u_1,\dots,u_n)\left(\sum_{j=1}^m\frac{\partial u_p}{\partial z_j}w_j\right)\overline{\left(\sum_{k=1}^m\frac{\partial u_q}{\partial z_k}w_k\right)}\\ &\qquad +n\sum_{q=1}^n\frac{\partial M}{\partial x_q}\sum_{j,k=1}^m\frac{\partial^2 u_q}{\partial z_j\partial\overline{z_k}}w_j\overline{w_k}. \end{align*}

余談だが,Demでは$M_\eta$の右辺に$1/\eta_j$が抜けている.

参考文献

投稿日:614
更新日:96
OptHub AI Competition

この記事を高評価した人

高評価したユーザはいません

この記事に送られたバッジ

バッジはありません。

投稿者

多変数関数論を勉強しています。今は主に Hömander の ``An Introduction to Complex Analysis in Several Variables'' を読んでいます。

コメント

他の人のコメント

コメントはありません。
読み込み中...
読み込み中