以下,特に断りがなければアインシュタインの縮約を適応する.
次のレビチビタ記号とクロネッカーのデルタの定義に注意せよ.
$$ \varepsilon_{ijk} = \begin{equation} \left\{ \, \begin{aligned} & 1 \ \ \ \ \ \ (i,j,k \ \mathrm{が偶置換}) \\ & -1 \ (i,j,k \ \mathrm{が奇置換}) \\ & 0 \ \ \ \ \ \ (\mathrm{otherwise}) \end{aligned} \right. \ \ , \delta_{ij} = \left\{ \, \begin{aligned} & 1 \ \ \ \ \ \ (i = j) \\ & 0 \ \ \ \ \ \ (i \neq j) \end{aligned} \right. \end{equation} $$
ということは,単位ベクトル$\boldsymbol e_1=(1,0,0)^{\top},
\boldsymbol e_2=(0,1,0)^{\top},
\boldsymbol e_3=(0,0,1)^{\top}$を用いて,
$$
\varepsilon_{ijk}
=\det(\boldsymbol e_i \ \ \boldsymbol e_j \ \ \boldsymbol e_k) \ , \
\delta_{ij} = \boldsymbol e_i^\top \boldsymbol e_j$$
と表せることに気付けるだろう.
$$ \varepsilon_{ijk}\varepsilon_{i'j'k}=\delta_{ii'}\delta_{jj'}-\delta_{i'j}\delta_{ij'} $$
$$\begin{align} \varepsilon_{ijk}\varepsilon_{i'j'k} & = \det(\boldsymbol e_i \ \ \boldsymbol e_j \ \ \boldsymbol e_k) \det(\boldsymbol e_{i'} \ \ \boldsymbol e_{j'} \ \ \boldsymbol e_k)\\ & = \det \begin{pmatrix} \boldsymbol e_i^\top\\ \boldsymbol e_j^\top\\ \boldsymbol e_k^\top\\ \end{pmatrix} \det(\boldsymbol e_{i'} \ \ \boldsymbol e_{j'} \ \ \boldsymbol e_k) \ \ (\because \det A^\top =\det A)\\ & = \det \begin{pmatrix} \boldsymbol e_i^\top \boldsymbol e_{i'} & \boldsymbol e_i^\top \boldsymbol e_{j'} & \boldsymbol e_i^\top \boldsymbol e_k\\ \boldsymbol e_j^\top \boldsymbol e_{i'} & \boldsymbol e_j^\top \boldsymbol e_{j'} & \boldsymbol e_j^\top \boldsymbol e_k\\ \boldsymbol e_k^\top \boldsymbol e_{i'} & \boldsymbol e_k^\top \boldsymbol e_{j'} & \boldsymbol e_k^\top \boldsymbol e_k\\ \end{pmatrix} \\ & = 1!\det \begin{pmatrix} \boldsymbol e_i^\top \boldsymbol e_{i'} & \boldsymbol e_i^\top \boldsymbol e_{j'} & 0\\ \boldsymbol e_j^\top \boldsymbol e_{i'} & \boldsymbol e_j^\top \boldsymbol e_{j'} & 0\\ 0 & 0 & 1\\ \end{pmatrix}( = \varepsilon_{ijk}\varepsilon_{i'j'k}(k\neq i,j,i',j',\mathrm{和は取らない}))+(3-1!)\cdot0( = \varepsilon_{ijk}\varepsilon_{i'j'k}(k = i,j,i',j',\mathrm{和は取らない}))\\ & = \det \begin{pmatrix} \delta_{ii'} & \delta_{i'j} \\ \delta_{ij'} & \delta_{jj'} \\ \end{pmatrix}\\ & = \delta_{ii'}\delta_{jj'}-\delta_{i'j}\delta_{ij'}. \end{align}$$
同様に次も示せる.
$$ \varepsilon_{ijk}\varepsilon_{i'jk}=2\delta_{ii'} $$
$$\begin{align} \varepsilon_{ijk}\varepsilon_{i'jk} & = \det(\boldsymbol e_i \ \ \boldsymbol e_j \ \ \boldsymbol e_k) \det(\boldsymbol e_{i'} \ \ \boldsymbol e_{j} \ \ \boldsymbol e_k)\\ & = \det \begin{pmatrix} \boldsymbol e_i^\top\\ \boldsymbol e_j^\top\\ \boldsymbol e_k^\top\\ \end{pmatrix} \det(\boldsymbol e_{i'} \ \ \boldsymbol e_{j} \ \ \boldsymbol e_k) \ \ (\because \det A^\top =\det A)\\ & = \det \begin{pmatrix} \boldsymbol e_i^\top \boldsymbol e_{i'} & \boldsymbol e_i^\top \boldsymbol e_{j} & \boldsymbol e_i^\top \boldsymbol e_k\\ \boldsymbol e_j^\top \boldsymbol e_{i'} & \boldsymbol e_j^\top \boldsymbol e_{j} & \boldsymbol e_j^\top \boldsymbol e_k\\ \boldsymbol e_k^\top \boldsymbol e_{i'} & \boldsymbol e_k^\top \boldsymbol e_{j} & \boldsymbol e_k^\top \boldsymbol e_k\\ \end{pmatrix} \\ & = 2!\det \begin{pmatrix} \boldsymbol e_i^\top \boldsymbol e_{i'} & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\\ \end{pmatrix}( = \varepsilon_{ijk}\varepsilon_{i'jk}(j,k\neq i,i',\mathrm{和は取らない}))+(3^2-2!)\cdot0( = \varepsilon_{ijk}\varepsilon_{i'jk}(j,k = i,i',\mathrm{和は取らない}))\\ & = 2\delta_{ii'}. \end{align}$$
$$ \varepsilon_{ijk}\varepsilon_{ijk}=6 $$
$$\begin{align} \varepsilon_{ijk}\varepsilon_{ijk} & = \det(\boldsymbol e_i \ \ \boldsymbol e_j \ \ \boldsymbol e_k) \det(\boldsymbol e_{i'} \ \ \boldsymbol e_{j} \ \ \boldsymbol e_k)\\ & = \det \begin{pmatrix} \boldsymbol e_i^\top\\ \boldsymbol e_j^\top\\ \boldsymbol e_k^\top\\ \end{pmatrix} \det(\boldsymbol e_{i} \ \ \boldsymbol e_{j} \ \ \boldsymbol e_k) \ \ (\because \det A^\top =\det A)\\ & = \det \begin{pmatrix} \boldsymbol e_i^\top \boldsymbol e_{i} & \boldsymbol e_i^\top \boldsymbol e_{j} & \boldsymbol e_i^\top \boldsymbol e_k\\ \boldsymbol e_j^\top \boldsymbol e_{i} & \boldsymbol e_j^\top \boldsymbol e_{j} & \boldsymbol e_j^\top \boldsymbol e_k\\ \boldsymbol e_k^\top \boldsymbol e_{i} & \boldsymbol e_k^\top \boldsymbol e_{j} & \boldsymbol e_k^\top \boldsymbol e_k\\ \end{pmatrix} \\ & = 3!\det \begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\\ \end{pmatrix}( = \varepsilon_{ijk}\varepsilon_{ijk}(i\neq j\neq k\neq i,\mathrm{和は取らない}))+(3^3-3!)\cdot0( = \varepsilon_{ijk}\varepsilon_{ijk}(\mathrm{otherwise},\mathrm{和は取らない}))\\ & = 6. \end{align}$$
まあ,これに関してはあまり使わないし,$\varepsilon_{ijk}\varepsilon_{ijk}(i\neq j\neq k\neq i,\mathrm{和は取らない})=1$だから$\varepsilon_{ijk}\varepsilon_{ijk}=3!\cdot1=6$で終わりだが,一応アナロジーの参考として載せておいた.
$$ \a \cdot (\b \times \c) = \b \cdot (\c \times \a) = \c \cdot (\a \times \b) $$
結果がスカラーになる三重積だから"スカラー"三重積.
外積の定義$\boldsymbol a \times \boldsymbol b = \varepsilon_{ijk}a_jb_k$に注意せよ.
$ \a \cdot (\b \times \c) = a_i (\varepsilon_{ijk}b_jc_k) = \varepsilon_{ijk} a_ib_jc_k $と$ \varepsilon_{ijk} = \varepsilon_{jki} = \varepsilon_{kij} $より,
$$ \varepsilon_{ijk} a_ib_jc_k = \varepsilon_{jki} b_jc_ka_i = \varepsilon_{kij} c_ka_ib_j \ \ \ \therefore \a \cdot (\b \times \c) = \b \cdot (\c \times \a) = \c \cdot (\a \times \b) $$
$$ \boldsymbol a \times (\boldsymbol b \times\boldsymbol c) = \boldsymbol b(\boldsymbol a \cdot \boldsymbol c) - \boldsymbol c(\boldsymbol a \cdot \boldsymbol b) $$
結果がベクトルになる三重積だから"ベクトル"三重積.
$$\begin{align} \boldsymbol a \times (\boldsymbol b \times\boldsymbol c) & = \varepsilon_{ijk}a_j(\varepsilon_{ki'j'}b_{i'}c_{j'})\\ & = \varepsilon_{ijk}\varepsilon_{i'j'k}a_{j}b_{i'}c_{j'}\\ & = (\delta_{ii'}\delta_{jj'}-\delta_{i'j}\delta_{ij'})a_{j}b_{i'}c_{j'}\\ & = \delta_{ii'}\delta_{jj'}a_{j}b_{i'}c_{j'} - \delta_{i'j}\delta_{ij'}a_{j}b_{i'}c_{j'}\\ & = b_{i}a_{j}c_j - c_ia_{j}b_{j}\\ & = \boldsymbol b(\boldsymbol a \cdot \boldsymbol c) - \boldsymbol c(\boldsymbol a \cdot \boldsymbol b). \end{align}$$
余談だが,この結果を用いると
$$\begin{align}
\sum_{\mathrm{cyc}}\boldsymbol a \times (\boldsymbol b \times\boldsymbol c)
& = \sum_{\mathrm{cyc}}[\boldsymbol b(\boldsymbol a \cdot \boldsymbol c) - \boldsymbol c(\boldsymbol a \cdot \boldsymbol b)]\\
& =\sum_{\mathrm{cyc}}\boldsymbol b(\boldsymbol c \cdot \boldsymbol a) - \sum_{\mathrm{cyc}}\boldsymbol c(\boldsymbol a \cdot \boldsymbol b)\\
& =\sum_{\mathrm{cyc}}\boldsymbol b(\boldsymbol c \cdot \boldsymbol a) - \sum_{\mathrm{cyc}}\boldsymbol b(\boldsymbol c \cdot \boldsymbol a)
\ \ \left(\because \sum_{\mathrm{cyc}}f(a,b,c) = \sum_{\mathrm{cyc}}f(c,a,b)\right)\\
& = \boldsymbol0
\end{align}$$
だから,ベクトル三重積はヤコビの恒等式を満たすことが容易に分かる,
また,$(\boldsymbol a \cdot \boldsymbol b)\boldsymbol c = \boldsymbol b(\boldsymbol a \cdot \boldsymbol c) - \boldsymbol a \times (\boldsymbol b \times\boldsymbol c)$だから,$\boldsymbol a , \boldsymbol b \rightarrow \nabla$と置き換えると,ベクトルラプラシアン
$$
\Delta \boldsymbol f
= \nabla (\nabla \cdot \boldsymbol f ) - \nabla \times(\nabla \times \boldsymbol f)
= \mathrm{grad}(\mathrm{div}\boldsymbol f)-\mathrm{rot}(\mathrm{rot}\boldsymbol f)
$$
が分かる.
$$ (\boldsymbol a \times\boldsymbol b)\cdot(\boldsymbol a' \times\boldsymbol b') = (\boldsymbol a \cdot\boldsymbol a')(\boldsymbol b \cdot\boldsymbol b') - (\boldsymbol a' \cdot\boldsymbol b)(\boldsymbol a \cdot\boldsymbol b') $$
結果がスカラーになる四重積だから"スカラー"四重積.
$$\begin{align} (\boldsymbol a \times\boldsymbol b)\cdot(\boldsymbol a' \times\boldsymbol b') & = \varepsilon_{ijk}a_jb_k \ \varepsilon_{ij'k'} a'_{j'}b'_{k'}\\ & = \varepsilon_{jki}\varepsilon_{j'k'i}a_jb_ka'_{j'}b'_{k'}\\ & = (\delta_{jj'}\delta_{kk'} - \delta_{j'k}\delta_{jk'})a_jb_ka'_{j'}b'_{k'}\\ & = \delta_{jj'}\delta_{kk'}a_jb_ka'_{j'}b'_{k'} - \delta_{j'k}\delta_{jk'}a_jb_ka'_{j'}b'_{k'}\\ & = a_ja'_{j}b_kb'_{k} - a'_kb_ka_{j}b'_{j}\\ & = (\boldsymbol a \cdot\boldsymbol a')(\boldsymbol b \cdot\boldsymbol b') - (\boldsymbol a' \cdot\boldsymbol b)(\boldsymbol a \cdot\boldsymbol b') \end{align}$$
$n=3$のビネ・コーシーの恒等式でもある.$ \boldsymbol a' = \boldsymbol a,\boldsymbol b' = \boldsymbol b$なら言うまでもなく$n=3$のラグランジュの恒等式
$$
|\boldsymbol a|^2|\boldsymbol b|^2=|\boldsymbol a \cdot\boldsymbol b|^2+|\boldsymbol a \times\boldsymbol b|^2
$$
であり,これは内積$ \boldsymbol a \cdot\boldsymbol b
= |\boldsymbol a||\boldsymbol b|\cos \theta $と外積の大きさ$ |\boldsymbol a \times \boldsymbol b|
= |\boldsymbol a||\boldsymbol b||\sin \theta|$と三角関数の定義からも容易に分かるだろう.
$
(1) \nabla \cdot (f \a)
= \nabla f \cdot \a + f\nabla \cdot \a
$
$
(2) \nabla \times(f \a)
= \nabla f \times \a + f\nabla \times \a
$
$ (3) \nabla \cdot (\a \times \b) = \b \cdot (\nabla \times \a) - \a \cdot (\nabla \times \b) $
$ (4) \nabla \times (\a \times \b) = (\b \cdot \nabla)\a - (\a \cdot \nabla)\b + \a (\nabla \cdot \b) - \b (\nabla \cdot \a) $
$ (5) \nabla (\a \cdot \b) = (\b \cdot \nabla)\a + (\a \cdot \nabla)\b + \a \times (\nabla \times \b) + \b \times (\nabla \times \a) $
$ (6)\boldsymbol V=-\nabla f + \nabla \times \A $(ヘルムホルツの分解定理)
$$\begin{align}
\nabla \cdot (f \a)
& = \p_i (fa_i)\\
& = \p_if \cdot a_i + f \cdot \p_ia_i \\
& = \nabla f \cdot \a + f\nabla \cdot \a
\end{align}$$
$$\begin{align}
\nabla \times (f \a)
& = \varepsilon_{ijk}\p_j(fa_k) \\
& = \varepsilon_{ijk}\p_jf \cdot a_k + \varepsilon_{ijk}f \cdot \p_ja_k \\
& = \varepsilon_{ijk}\p_jf \cdot a_k + f \cdot \varepsilon_{ijk} \p_ja_k \\
& = \nabla f \times \a + f\nabla \times \a
\end{align}$$
$$\begin{align}
\nabla \cdot (\a \times \b)
& = \p_i(\varepsilon_{ijk}a_jb_k) \\
& = \varepsilon_{ijk}\p_ia_j \cdot b_k + \varepsilon_{ijk}a_j \cdot \p_ib_k \\
& = b_k\varepsilon_{kij}\p_ia_j - a_j\varepsilon_{jik}\p_ib_k \\
& = \b \cdot (\nabla \times \a) - \a \cdot (\nabla \times \b)
\end{align}$$
$$\begin{align}
\nabla \times (\a \times \b)
& = \varepsilon_{ijk}\p_j(\varepsilon_{ki'j'}a_{i'}b_{j'}) \\
& = \varepsilon_{ijk}\varepsilon_{ki'j'}(\p_ja_{i'} \cdot b_{j'} + a_{i'} \cdot \p_jb_{j'})\\
& = \varepsilon_{ijk}\varepsilon_{i'j'k}\p_ja_{i'} \cdot b_{j'} + \varepsilon_{ijk}\varepsilon_{i'j'k}a_{i'} \cdot \p_jb_{j'}\\
& = (\delta_{ii'}\delta_{jj'} - \delta_{i'j}\delta_{ij'})\p_ja_{i'} \cdot b_{j'}
+ (\delta_{ii'}\delta_{jj'} - \delta_{i'j}\delta_{ij'})a_{i'} \cdot \p_jb_{j'}\\
& = \delta_{ii'}\delta_{jj'}\p_ja_{i'} \cdot b_{j'}
- \delta_{i'j}\delta_{ij'}\p_ja_{i'} \cdot b_{j'}
+ \delta_{ii'}\delta_{jj'}a_{i'} \cdot \p_jb_{j'}
- \delta_{i'j}\delta_{ij'}a_{i'} \cdot \p_jb_{j'} \\
& = \p_ja_{i} \cdot b_{j} - \p_ja_j \cdot b_{i} + a_{i} \cdot \p_jb_{j} - a_{j} \cdot \p_jb_{i} \\
& = b_{j}\p_ja_{i} - a_{j}\p_jb_{i} + a_{i}\p_jb_{j} - b_{i}\p_ja_j\\
& = (\b \cdot \nabla)\a - (\a \cdot \nabla)\b + \a (\nabla \cdot \b) - \b (\nabla \cdot \a)
\end{align}$$
$$\begin{align}
\nabla (\a \cdot \b)
& = \p_i (a_jb_j) \\
& = \p_i a_j \cdot b_j + a_j \cdot \p_i b_j\\
& = \delta_{ii'}\delta_{jj'}\p_{i'} a_{j'} \cdot b_j + a_j \cdot \delta_{ii'}\delta_{jj'} \p_{i'} b_{j'}\\
& = (\varepsilon_{ijk}\varepsilon_{i'j'k} + \delta_{i'j}\delta_{ij'})
\p_{i'} a_{j'} \cdot b_j
+ a_j \cdot (\varepsilon_{ijk}\varepsilon_{i'j'k} + \delta_{i'j}\delta_{ij'})
\p_{i'} b_{j'} \\
& = \delta_{i'j}\delta_{ij'}\p_{i'} a_{j'} \cdot b_j
+ \delta_{i'j}\delta_{ij'}a_j \cdot \p_{i'} b_{j'}
+ \varepsilon_{ijk}\varepsilon_{i'j'k}a_j \cdot \p_{i'} b_{j'}
+ \varepsilon_{ijk}\varepsilon_{i'j'k}\p_{i'} a_{j'} \cdot b_j \\
& = b_j\p_{j} a_{i}
+ a_j\p_{j} b_{i}
+ \varepsilon_{ijk}a_j(\varepsilon_{ki'j'}\p_{i'} b_{j'})
+ \varepsilon_{ijk}b_j(\varepsilon_{ki'j'}\p_{i'} a_{j'})\\
& = (\b \cdot \nabla)\a + (\a \cdot \nabla)\b + \a \times (\nabla \times \b) + \b \times (\nabla \times \a)
\end{align}$$
$$\begin{align}
\nabla \cdot (\nabla \times (\nabla \times \a))
& = \p_i\varepsilon_{ijk}\p_{j}\varepsilon_{ki'j'}\p_{i'}a_{j'}\\
& = \varepsilon_{ijk}\varepsilon_{i'j'k}\p_i\p_{j}\p_{i'}a_{j'}\\
& = (\delta_{ii'}\delta_{jj'} - \delta_{i'j}\delta_{ij'})\p_i\p_{j}\p_{i'}a_{j'}\\
& = \delta_{ii'}\delta_{jj'}\p_i\p_{j}\p_{i'}a_{j'} - \delta_{i'j}\delta_{ij'}\p_i\p_{j}\p_{i'}a_{j'}\\
& = \p_i\p_{j}\p_{i}a_{j} - \p_i\p_{j}\p_{j}a_{i}\\
& = \p_i\p_{i}\p_{j}a_{j} - \p_i\p_{i}\p_{j}a_{j}\\
& = 0 \\
& = \boldsymbol 0 \ \ \ ...\nabla \times (\nabla \times \a)\mathrm{は湧き出しなし場}
\end{align}$$
$$\begin{align}
2\nabla \times (\nabla (\nabla \cdot \a))
& = 2\varepsilon_{ijk}\p_j\p_k(\p_la_l) \\
& = \varepsilon_{ijk}\p_j\p_k\p_la_l + \varepsilon_{ijk}\p_j\p_k\p_la_l\\
& = \varepsilon_{ijk}\p_j\p_k\p_la_l - \varepsilon_{ikj}\p_k\p_j\p_la_l\\
& = \varepsilon_{ijk}\p_j\p_k\p_la_l - \varepsilon_{ijk}\p_j\p_k\p_la_l\\
& = 0 \\
& = \boldsymbol 0 \ \ \ ... \nabla (\nabla \cdot \a)\mathrm{は渦なし場}
\end{align}$$
また,
$$\begin{align}
\nabla \cdot \Delta \a
& = \p_i\p_{j}\p_{j}a_{i}\\
& = \p_j\p_{j}\p_{i}a_{i}\\
& = \Delta (\nabla \cdot \a) \ \ \ ...\Delta \a\mathrm{は湧き出しなし場とは限らない.}
\end{align}$$
$$\begin{align}
\nabla \times \Delta \a
& = \varepsilon_{ijk}\p_j\p_{l}\p_{l}a_{k}\\
& = \p_{l}\p_{l}\varepsilon_{ijk}\p_ja_{k}\\
& = \Delta (\nabla \times \a) \ \ \ ...\Delta \a\mathrm{は渦なし場とは限らない.}
\end{align}$$
であり,公式5で書いたように
$
\Delta \a
= \nabla (\nabla \cdot \a ) - \nabla \times(\nabla \times \a)
$だから,$\Delta \a$は,それ自身は渦なし場,湧き出しなし場でなくとも,渦なし場と湧き出しなし場に一意に分解できる.
以上より,$\boldsymbol V = \Delta \a$なる $\boldsymbol a$に対し,$f =-\nabla \cdot \a \ , \A = - \nabla \times \a$$
(\Delta f = -\nabla \cdot \boldsymbol V \ , \ \Delta \A = - \nabla \times \boldsymbol V)
$と置け,題意を得る.
$ (\b \cdot \nabla)\a$ワッショイ!!$ (\a \cdot \nabla)\b$ワッショイ!!$ \a (\nabla \cdot \b)$ワッショイ!!$ \b (\nabla \cdot \a)$