前の記事
で
\begin{align}
g\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right):=\sum_{\substack{0< m_1<\cdots< m_r\\0< n_1,\dots,n_r}}\frac{n_1^{k_1-1}m_1^{d_1}\cdots n_r^{k_r-1}m_r^{d_r}}{(k_1-1)!\cdots (k_r-1)!}q^{m_1n_1+\cdots+m_rn_r}
\end{align}
として, その母関数を
\begin{align}
\mathfrak{g}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right):=\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}g\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_r^{d_r}}{d_1!\cdots d_r!}
\end{align}
としたとき, それがswap invariantである, つまり
\begin{align}
\mathfrak{g}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)=\mathfrak{g}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1},\dots,X_2-X_1,X_1\end{matrix}\right)
\end{align}
を満たすことを示し, さらに$\mathfrak{g}$は
\begin{align}
\left(X_1\atop Y_1\right)\diamond \left(X_2\atop Y_2\right)=\frac 1{e^{X_1-X_2}-1}\left(X_1\atop Y_1+Y_2\right)+\frac 1{e^{X_2-X_1}-1}\left(X_2\atop Y_1+Y_2\right)
\end{align}
に関する準シャッフル積を満たすことを示した. 今回は, 調和積を満たし, その母関数がswap invariantであるようなものとして定義される形式的Eisenstein級数について, その微分を考えたいと思う.
$\mathcal{A}:=\left\{\left(k\atop d\right), k\geq 1,d\geq 0\right\}$の元からなるwordを
\begin{align}
\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)=\left(k_1\atop d_1\right)\cdots \left(k_r\atop d_r\right)
\end{align}
と表し, その全体の集合を$\QQ\langle\mathcal{A}\rangle$と表す. このとき, 調和積をword$w,v$に対し,
\begin{align}
w*1&=1*w=w\\
\left(k_1\atop d_1\right)w*\left(k_2\atop d_2\right)v&=\left(k_1\atop d_1\right)\left(w*\left(k_2\atop d_2\right)v\right)+\left(k_2\atop d_2\right)\left(\left(k_1\atop d_1\right)w*v\right)+\left(k_1+k_2\atop d_1+d_2\right)(w*v)
\end{align}
によって再帰的に定義されるものとする. これによって, $(\QQ\langle\mathcal{A}\rangle,*)$は可換な$\QQ$代数になる.
\begin{align}
\mathfrak{A}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right):=\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_r^{d_r}}{d_1!\cdots d_r!}
\end{align}
として,
\begin{align}
\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}\sigma\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_r^{d_r}}{d_1!\cdots d_r!}=\mathfrak{A}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1},\dots,X_2-X_1,X_1\end{matrix}\right)
\end{align}
によってwordの$\QQ$線形和
\begin{align}
\sigma\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)
\end{align}
を定義する. このとき, $(\QQ\langle A\rangle,*)$を
\begin{align}
\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)-\sigma\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)
\end{align}
によって生成されるイデアル$\mathcal{I}$で割った商代数
\begin{align}
\mathcal{G}^f:=(\QQ\langle A\rangle,*)/\mathcal{I}
\end{align}
における
\begin{align}
\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)
\end{align}
の同値類を
\begin{align}
G^f\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)
\end{align}
と表し, これを形式的多重Eisenstein級数という. $r$を深さといい, $k_1+\cdots+k_r+d_1+\cdots+d_r$を重さという. これが形式的多重Eisenstein級数と呼ばれる理由は,
\begin{align}
G^f(k_1,\dots,k_r):=G^f\left(\begin{matrix}k_1,\dots,k_r\\0,\dots,0\end{matrix}\right)
\end{align}
として, $k_1,\dots,k_r\geq 2$であるような形式的多重Eisenstein級数$G^f(k_1,\dots,k_r)$によって生成される$\QQ$代数と,
多重Eisenstein級数
$G_{k_1,\dots,k_r}(\tau)$によって生成される$\QQ$代数の間に
\begin{align}
G^f(k_1,\dots,k_r)\mapsto G_{k_1,\dots,k_r}(\tau)
\end{align}
によって与えられる$\QQ$代数の同型があることが予想されていることによる. 定義から, $G^f$の母関数
\begin{align}
\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)=\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}G^f\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_r^{d_r}}{d_1!\cdots d_r!}
\end{align}
はswap invariantである. つまり,
\begin{align}
\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)=\mathfrak{G}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1},\dots,X_2-X_1,X_1\end{matrix}\right)
\end{align}
が成り立つ. また, $G^f$は調和関係式
\begin{align}
G^f\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)G^f\left(\begin{matrix}l_1,\dots,l_s\\e_1,\dots,e_s\end{matrix}\right)=G^f\left(\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)*\left(\begin{matrix}l_1,\dots,l_s\\e_1,\dots,e_s\end{matrix}\right)\right)
\end{align}
を満たしている. このとき母関数において, 調和積が重なる部分は
\begin{align}
&\sum_{\substack{1\leq k_1,k_2\\0\leq d_1,d_2}}\left(k_1+k_2\atop d_1+d_2\right)X_1^{k_1-1}X_2^{k_2-1}\frac{Y_1^{d_1}Y_2^{d_2}}{d_1!d_2!}\\
&=\sum_{\substack{1\leq k\\0\leq d}}\left(k\atop d\right)\left(\sum_{\substack{1\leq k_1,k_2\\k_1+k_2=k}}X_1^{k_1-1}X_2^{k_2-1}\right)\left(\sum_{\substack{0\leq d_1,d_2\\d_1+d_2=d}}\frac{Y_1^{d_1}Y_2^{d_2}}{d_1!d_2!}\right)\\
&=\sum_{\substack{1\leq k\\0\leq d}}\left(k\atop d\right)\frac{X_1^{k-1}-X_2^{k-1}}{X_1-X_2}\frac{(Y_1+Y_2)^d}{d!}
\end{align}
となるから, $\mathfrak{G}$は
\begin{align}
\left(X_1\atop Y_1\right)\circ \left(X_2\atop Y_2\right)=\frac 1{X_1-X_2}\left(X_1\atop Y_1+Y_2\right)+\frac 1{X_2-X_1}\left(X_2\atop Y_1+Y_2\right)
\end{align}
に関する準シャッフル積を満たす. このことを$\mathfrak{G}$はsymmetrilであるという.
$\QQ\langle A\rangle$の元に対し,
\begin{align}
D1&:=0\\
D\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)&:=\sum_{j=1}^rk_j\left(\begin{matrix}k_1,\dots,k_j+1,\dots,k_r\\d_1,\dots,d_j+1,\dots,d_r\end{matrix}\right)
\end{align}
によって写像$D$を定義する. このとき,
\begin{align}
D\left(k\atop d\right)=k\left(k+1\atop d+1\right)
\end{align}
となっていることから$D$は$\QQ\langle A\rangle$の導分である. これが$(\QQ\langle A\rangle, *)$の導分にもなっていることは調和積の再帰的な定義と重さに関する帰納法により,
\begin{align}
&D\left(\left(k_1\atop d_1\right)w*\left(k_2\atop d_2\right)v\right)\\
&=D\left(\left(k_1\atop d_1\right)\left(w*\left(k_2\atop d_2\right)v\right)+\left(k_2\atop d_2\right)\left(\left(k_1\atop d_1\right)w*v\right)+\left(k_1+k_2\atop d_1+d_2\right)(w*v)\right)\\
&=k_1\left(k_1+1\atop d_1+1\right)\left(w*\left(k_2\atop d_2\right)v\right)+k_2\left(k_2+1\atop d_2+1\right)\left(\left(k_1\atop d_1\right)w*v\right)+(k_1+k_2)\left(k_1+k_2+1\atop d_1+d_2+1\right)(w*v)\\
&\qquad+\left(k_1\atop d_1\right)D\left(w*\left(k_2\atop d_2\right)v\right)+\left(k_2\atop d_2\right)D\left(\left(k_1\atop d_1\right)w*v\right)+\left(k_1+k_2\atop d_1+d_2\right)D(w*v)\\
&=k_1\left(k_1+1\atop d_1+1\right)\left(w*\left(k_2\atop d_2\right)v\right)+k_2\left(k_2+1\atop d_2+1\right)\left(\left(k_1\atop d_1\right)w*v\right)+(k_1+k_2)\left(k_1+k_2+1\atop d_1+d_2+1\right)(w*v)\\
&\qquad+\left(k_1\atop d_1\right)\left(Dw*\left(k_2\atop d_2\right)v+k_2w*\left(k_2+1\atop d_2+1\right)v+w*\left(k_2\atop d_2\right)Dv\right)\\
&\qquad+\left(k_2\atop d_2\right)\left(k_1\left(k_1+1\atop d_1+1\right)w*v+\left(k_1\atop d_1\right)Dw*v+\left(k_1\atop d_1\right)w*Dv\right)+\left(k_1+k_2\atop d_1+d_2\right)(Dw*v+w*Dv)\\
&=k_1\left(\left(k_1+1\atop d_1+1\right)\left(w*\left(k_2\atop d_2\right)v\right)+\left(k_2\atop d_2\right)\left(\left(k_1+1\atop d_1+1\right)w*v\right)+\left(k_1+k_2+1\atop d_1+d_2+1\right)(w*v)\right)\\
&\qquad +k_2\left(\left(k_2+1\atop d_2+1\right)\left(\left(k_1\atop d_1\right)w*v\right)+\left(k_1+k_2+1\atop d_1+d_2+1\right)(w*v)+\left(k_1\atop d_1\right)\left(w*\left(k_2+1\atop d_2+1\right)v\right)\right)\\
&\qquad+\left(k_1\atop d_1\right)\left(Dw*\left(k_2\atop d_2\right)v\right)+\left(k_2\atop d_2\right)\left(\left(k_1\atop d_1\right)Dw*v\right)+\left(k_1+k_2\atop d_1+d_2\right)(Dw*v)\\
&\qquad+\left(k_1\atop d_1\right)\left(w*\left(k_2\atop d_2\right)Dv\right)+\left(k_2\atop d_2\right)\left(\left(k_1\atop d_1\right)w*Dv\right)+\left(k_1+k_2\atop d_1+d_2\right)(w*Dv)\\
&=k_1\left(k_1+1\atop d_1+1\right)w*\left(k_2\atop d_2\right)v+\left(k_1\atop d_1\right)w*k_2\left(k_2+1\atop d_2+1\right)v\\
&\qquad+\left(k_1\atop d_1\right)Dw*\left(k_2\atop d_2\right)v+\left(k_1\atop d_1\right)w*\left(k_2\atop d_2\right)Dv\\
&=D\left(\left(k_1\atop d_1\right)w\right)*\left(k_2\atop d_2\right)v+\left(k_1\atop d_1\right)w*D\left(\left(k_2\atop d_2\right)v\right)\\
\end{align}
となることから分かる. 母関数を考えると
\begin{align}
&\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}D\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_r^{d_r}}{d_1!\cdots d_r!}\\
&=\sum_{j=1}^r\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}k_j\left(\begin{matrix}k_1,\dots,k_j+1,\dots,k_r\\d_1,\dots,d_j+1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_r^{d_r}}{d_1!\cdots d_r!}\\
&=\sum_{j=1}^r\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}(k_j-1)\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_j^{k_j-2}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_j^{d_j-1}\cdots Y_r^{d_r}}{d_1!\cdots(d_j-1)!\cdots d_r!}\\
&=\sum_{j=1}^r\frac{\partial}{\partial X_j}\frac{\partial}{\partial Y_j}\mathfrak{A}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)
\end{align}
と表すことができる. これを用いると,
\begin{align}
&\frac{\partial}{\partial Y_r}\frac{\partial}{\partial(X_r-X_{r-1})}+\frac{\partial}{\partial(Y_{r-1}+Y_r)}\frac{\partial}{\partial(X_{r-1}-X_{r-2})}\\
&\qquad+\cdots+\frac{\partial}{\partial(Y_2+\cdots+Y_r)}\frac{\partial}{\partial(X_2-X_1)}+\frac{\partial}{\partial(Y_1+\cdots+Y_r)}\frac{\partial}{\partial X_1}\\
&=\frac{\partial}{\partial Y_r}\left(\frac{\partial}{\partial X_r}-\frac{\partial}{\partial X_{r-1}}\right)+\left(\frac{\partial}{\partial Y_{r-1}}+\frac{\partial}{\partial Y_{r}}\right)\left(\frac{\partial}{\partial X_{r-1}}-\frac{\partial}{\partial X_{r-2}}\right)\\
&\qquad+\cdots+\left(\frac{\partial}{\partial Y_2}+\cdots+\frac{\partial}{\partial Y_r}\right)\left(\frac{\partial}{\partial X_2}-\frac{\partial}{\partial X_1}\right)+\left(\frac{\partial}{\partial Y_1}+\cdots+\frac{\partial}{\partial Y_r}\right)\frac{\partial}{\partial X_1}\\
&=\sum_{j=1}^r\frac{\partial}{\partial X_j}\frac{\partial}{\partial Y_j}
\end{align}
となるから,
\begin{align}
&\bigg(\frac{\partial}{\partial Y_r}\frac{\partial}{\partial(X_r-X_{r-1})}+\frac{\partial}{\partial(Y_{r-1}+Y_r)}\frac{\partial}{\partial(X_{r-1}-X_{r-2})}\\
&\qquad+\cdots+\frac{\partial}{\partial(Y_2+\cdots+Y_r)}\frac{\partial}{\partial(X_2-X_1)}+\frac{\partial}{\partial(Y_1+\cdots+Y_r)}\frac{\partial}{\partial X_1}\bigg)\\
&\qquad\cdot\mathfrak{A}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1},\dots,X_2-X_1,X_1\end{matrix}\right)\\
&=\sum_{j=1}^r\frac{\partial}{\partial X_j}\frac{\partial}{\partial Y_j}\mathfrak{A}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1},\dots,X_2-X_1,X_1\end{matrix}\right)\\
\end{align}
となる. この係数を比較すると
\begin{align}
\sigma\left(D\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)\right)=D\left(\sigma\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)\right)
\end{align}
を得る. よって, $w-\sigma w$の生成するイデアルは$D$に閉じているから,
\begin{align}
DG^f\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right):=\sum_{j=1}^rk_jG^f\left(\begin{matrix}k_1,\dots,k_j+1,\dots,k_r\\d_1,\dots,d_j+1,\dots,d_r\end{matrix}\right)
\end{align}
によって$\mathcal{G}^f$の導分$D$がwell-definedに定まる. この$D$を微分ということにする.
word$w,v$に対し,
\begin{align}
w\th v:=\sigma(\sigma(w)*\sigma(v))
\end{align}
によって定義される積はシャッフル積の類似を与える. 特に, $G^f$は$*, \widetilde{\text{ш}}$の2つの積を満たすから, その2つの積を比較することによって複シャッフル関係式の類似となる関係式を得ることができる. 以下, 片方が深さ1の場合にこのシャッフル積の類似を計算したいと思う.
\begin{align}
&\mathfrak{G}\left(X\atop Y\right)\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)\\
&=\mathfrak{G}\left(Y\atop X\right)\mathfrak{G}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1},\dots,X_2-X_1,X_1\end{matrix}\right)\\
&=\sum_{j=0}^r\mathfrak{G}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_{j+1}+\cdots+Y_r,Y,Y_j+\cdots+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1},\dots,X_{j+1}-X_j,X,X_j-X_{j-1},\dots,X_2-X_1,X_1\end{matrix}\right)\\
&\qquad +\sum_{j=1}^r\frac 1{Y-(Y_j+\cdots+Y_r)}\mathfrak{G}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_{j+1}+\cdots+Y_r,Y,Y_{j-1}+\cdots+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1}\dots,X_j-X_{j-1}+X,\dots,X_2-X_1,X_1\end{matrix}\right)\\
&\qquad+\sum_{j=1}^r\frac 1{Y_j+\cdots+Y_r-Y}\mathfrak{G}\left(\begin{matrix}Y_r,Y_{r-1}+Y_r,\dots,Y_1+\cdots+Y_r\\X_r-X_{r-1}\dots,X_j-X_{j-1}+X,\dots,X_2-X_1,X_1\end{matrix}\right)\\
&=\sum_{j=0}^r\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\Y_1,\dots,Y_{j-1},Y_{j}+\cdots+Y_r-Y,Y-(Y_{j+1}+\cdots+Y_r),Y_{j+1},\dots,Y_r\end{matrix}\right)\\
&\qquad +\sum_{j=1}^r\frac 1{Y-(Y_j+\cdots+Y_r)}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_{j-1},X_j+X,\dots,X_r+X\\Y_1,\dots,Y_{j-2},Y_{j-1}+\cdots+Y_r-Y,Y-(Y_{j+1}+\cdots+Y_r),Y_{j+1},\dots,Y_r\end{matrix}\right)\\
&\qquad+\sum_{j=1}^r\frac 1{Y_j+\cdots+Y_r-Y}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_{j-1},X_j+X,\dots,X_r+X\\Y_1,\dots,Y_r\end{matrix}\right)
\end{align}
ただし, 第1項の$j=0$の場合, 第2項の$j=1$の場合はそれぞれ
\begin{align}
&\mathfrak{G}\left(\begin{matrix}X,X_1+X,\dots,X_r+X\\Y-(Y_1+\cdots+Y_r),Y_{j+1},\dots,Y_r\end{matrix}\right),\quad\frac 1{Y-(Y_1+\cdots+Y_r)}\mathfrak{G}\left(\begin{matrix}X_1+X,\dots,X_r+X\\Y-(Y_2+\cdots+Y_r),Y_2,\dots,Y_r\end{matrix}\right)
\end{align}
と見なすものとする. つまり, 以下が得られたことになる.
\begin{align} &\mathfrak{G}\left(X\atop Y\right)\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)\\ &=\sum_{j=0}^r\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\Y_1,\dots,Y_{j-1},Y_{j}+\cdots+Y_r-Y,Y-(Y_{j+1}+\cdots+Y_r),Y_{j+1},\dots,Y_r\end{matrix}\right)\\ &\qquad +\sum_{j=1}^r\frac 1{Y-(Y_j+\cdots+Y_r)}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_{j-1},X_j+X,\dots,X_r+X\\Y_1,\dots,Y_{j-2},Y_{j-1}+\cdots+Y_r-Y,Y-(Y_{j+1}+\cdots+Y_r),Y_{j+1},\dots,Y_r\end{matrix}\right)\\ &\qquad+\sum_{j=1}^r\frac 1{Y_j+\cdots+Y_r-Y}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_{j-1},X_j+X,\dots,X_r+X\\Y_1,\dots,Y_r\end{matrix}\right) \end{align}
左辺を調和積で展開して係数比較することによって$G^f$の間の線形関係式を得ることができるが, 実際に係数比較した明示式は一般に複雑になりそうである.
命題1の応用として,
\begin{align}
G^f(k_1,\dots,k_r)=G^f\left(\begin{matrix}k_1,\dots,k_r\\0,\dots,0\end{matrix}\right)
\end{align}
の微分を$G^f(l_1,\dots,l_s)$の線形和で明示的に書く公式を与えることができる. まず, 命題1において$Y_1=\cdots=Y_r$とすると
\begin{align}
&\mathfrak{G}\left(X\atop Y\right)\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\0,\dots,0\end{matrix}\right)\\
&=\sum_{j=0}^r\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\\{0\}^{j-1},-Y,Y,\{0\}^{r-j}\end{matrix}\right)\\
&\qquad +\sum_{j=1}^r\frac 1{Y}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_{j-1},X_j+X,\dots,X_r+X\\\{0\}^{j-2},-Y,Y,\{0\}^{r-j}\end{matrix}\right)\\
&\qquad-\sum_{j=1}^r\frac 1{Y}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_{j-1},X_j+X,\dots,X_r+X\\0,\dots,0\end{matrix}\right)
\end{align}
ここで, $Y\to 0$とすると
\begin{align}
&\mathfrak{G}\left(X\atop 0\right)\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\0,\dots,0\end{matrix}\right)\\
&=\sum_{j=0}^r\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\0,\dots,0\end{matrix}\right)\\
&\qquad +\sum_{j=1}^r\left.\left(\frac{\partial}{\partial Y_j}-\frac{\partial}{\partial Y_{j-1}}\right)\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_{j-1},X_j+X,\dots,X_r+X\\Y_1,\dots,Y_r\end{matrix}\right)\right|_{Y_1=\cdots=Y_r=0}
\end{align}
となる(ただし形式的に$\frac{\partial}{\partial Y_0}=0$とみなす). 両辺を$X$で偏微分して$X\to 0$とすると
\begin{align}
&G^f(2)\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\0,\dots,0\end{matrix}\right)\\
&=\sum_{j=0}^r\left.\frac{\partial}{\partial X}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\0,\dots,0\end{matrix}\right)\right|_{X=0}\\
&\qquad +\sum_{j=1}^r\left.\left(\frac{\partial}{\partial Y_j}-\frac{\partial}{\partial Y_{j-1}}\right)\sum_{i=j}^r\frac{\partial}{\partial X_i}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)\right|_{Y_1=\cdots=Y_r=0}\\
&=\sum_{j=0}^r\left.\frac{\partial}{\partial X}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\0,\dots,0\end{matrix}\right)\right|_{X=0}+\sum_{i=1}^r\left.\frac{\partial}{\partial X_i}\frac{\partial}{\partial Y_i}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)\right|_{Y_1=\cdots=Y_r=0}
\end{align}
よって,
\begin{align}
&\sum_{i=1}^r\left.\frac{\partial}{\partial X_i}\frac{\partial}{\partial Y_i}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)\right|_{Y_1=\cdots=Y_r=0}\\
&=G^f(2)\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\0,\dots,0\end{matrix}\right)-\sum_{j=0}^r\left.\frac{\partial}{\partial X}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\0,\dots,0\end{matrix}\right)\right|_{X=0}
\end{align}
を得る. 先ほど見たように,
\begin{align}
&\sum_{\substack{1\leq k_1,\dots,k_r\\0\leq d_1,\dots,d_r}}DG^f\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)X_1^{k_1-1}\cdots X_r^{k_r-1}\frac{Y_1^{d_1}\cdots Y_r^{d_r}}{d_1!\cdots d_r!}\\
&=\sum_{j=1}^r\frac{\partial}{\partial X_j}\frac{\partial}{\partial Y_j}\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_r\\Y_1,\dots,Y_r\end{matrix}\right)
\end{align}
であることと, シャッフル積$\sh$を用いて
\begin{align}
\sum_{j=0}^r\mathfrak{G}\left(\begin{matrix}X_1,\dots,X_j,X_j+X,\dots,X_r+X\\0,\dots,0\end{matrix}\right)=\sum_{0\leq k_1,\dots,k_r}G^f((k_1,\dots,k_r)\sh(k))X_1^{k_1-1}\cdots X_r^{k_r-1}X^{k-1}
\end{align}
と展開できることから, 両辺の係数を比較すると,
\begin{align}
DG^f(k_1,\dots,k_r)&=G^f(2)G^f(k_1,\dots,k_r)-G^f((k_1,\dots,k_r)\sh(2))
\end{align}
となる. つまり以下を得る.
インデックス$(k_1,\dots,k_r)$に対し,
\begin{align}
DG^f(k_1,\dots,k_r)&=G^f(2)G^f(k_1,\dots,k_r)-G^f((k_1,\dots,k_r)\sh(2))
\end{align}
が成り立つ.
調和関係式を用いれば,
\begin{align}
DG^f(k_1,\dots,k_r)&=G^f((k_1,\dots,k_r)*(2)-(k_1,\dots,k_r)\sh(2))
\end{align}
と表すことができるので, $G^f(k_1,\dots,k_r)$全体は微分について閉じていることが分かる. Bachmann-van Ittersumの論文において, $k_1,\dots,k_r\geq 2$であるような$G^f(k_1,\dots,k_r)$からなる空間も微分について閉じていると予想されている. 全ての
\begin{align}
G^f\left(\begin{matrix}k_1,\dots,k_r\\d_1,\dots,d_r\end{matrix}\right)
\end{align}
が$G^f(l_1,\dots,l_s)$の$\QQ$係数の線形和で表されることもBachmann-van Ittersumの論文において予想されており, 重要な未解決問題である.