0
大学数学基礎解説
文献あり

Wasserstein距離に基づく分布的ロバスト最適化の凸最適化問題への帰着

1930
0

1. はじめに

この記事は、文献[2]の式変形の備忘録として残したものです。式番号は論文にあわせておりますのでご注意ください。

ルベーグ積分、関数解析、凸解析および測度論的確率論を勉強しはじめた段階なので、間違った理解をしているところがあると思います。見つけた際は、間違いをご指摘頂ければ幸いです。

2. Wasserstein距離とは

Wasserstein距離は、輸送問題に着想を得た分布間の距離尺度のことである。連続型分布Q:=γ()と、離散型分布である経験分布P:=pの間に限定して考える。

Wasserstein距離のイメージ図 Wasserstein距離のイメージ図

図1のように、PからQへと確率を移動する輸送問題を考え、単位輸送費用がzYipで与えられた場合の最小費用がダイバージェンスd(Q|P)を与える。

3. 分布的ロバスト最適化とは

事前には認知が難しい事後での不整合に対し、最悪ケースのずれがあったとしても最適解の実行可能性やある種の最適性を担保しようとする最適化モデリングをロバスト最適化という。

ロバスト最適化の比較を図に示す。

ロバスト最適化の比較 ロバスト最適化の比較

ロバスト最適化の中でも想定する確率分布の不確実性を考慮したものを分布的ロバスト最適化という。

分布的ロバスト最適化は、経験分布P^Nの不確実性を集合で表し、その集合の中で最悪ケースの期待コストの最小化を目指す。

infxsupQBϵ(P^N)EQ[l(ξ)]

不確実性集合Bϵ(P^N)は、下式で与えられる。

(6)Bϵ(P^N):={QM(Ξ):dW(P^N,Q)ϵ}.

経験分布P^Nを中心とした半径ϵのWasserstein球とみることができる。

4. 最悪ケースの期待コスト問題の凸最適化問題への帰着

式(10)の最悪ケースの期待コスト問題が凸最適化問題に帰着することができることをみていく。

(10)supQBϵ(P^N)EQ[l(ξ)]

仮定4.1 (Convexity)

不確実性集合ΞRmは凸で閉であるとする。
lkはproperであり、凸であり、下半連続であるとする。
さらに、lkではないとする。

Convex reduction

仮説4.1において、任意のϵ0において、式(10)の最悪ケースの期待コスト問題は式(11)の凸最適化問題の最適値に等しい。

(11)|infλ,si,zik,vikλϵ+1Ni=1Nsis.t.[lk](zikvik)+σΞ(vik)zik,ξ^isizikλ

ここで、zikzikの双対ノルムである。

4.1 定理1で使う道具の紹介

この節では、定理1の証明に入る前に、証明でつかう定義や補題を紹介する。
関数解析、凸解析および測度論的確率論はまだ勉強しはじめたばかりなので間違いがあればご指摘ください。

supQiM(Ξ)1Ni=1NΞ(l(ξ)λξξ^i)Qi(dξ)=1Ni=1NsupξΞ(l(ξ)λξξ^i)

まず、以下の不等式の証明をする。

supQiM(Ξ)1Ni=1NΞ(l(ξ)λξξ^i)Qi(dξ)1Ni=1NsupξΞ(l(ξ)λξξ^i)

supQiM(Ξ)1Ni=1NΞ(l(ξ)λξξ^i)Qi(dξ)=sup{1Ni=1NΞ(l(ξ)λξξ^i)Qi(dξ)QiM(Ξ)  for i=1,2,,N}=1Ni=1Nsup{Ξ(l(ξ)λξξ^i)Qi(dξ)QiM(Ξ)}1Ni=1Nsup{Ξ(l(ζ)λζξ^i)δξ(dζ)ξΞ}=1Ni=1NsupξΞ(l(ξ)λξξ^i)

次に以下の不等式を証明する。

supQiM(Ξ)1Ni=1NΞ(l(ξ)λξξ^i)Qi(dξ)1Ni=1NsupξΞ(l(ξ)λξξ^i)

supQiM(Ξ)1Ni=1NΞ(l(ξ)λξξ^i)Qi(dξ)supQiM(Ξ)1Ni=1NΞsupξΞ(l(ξ)λξξ^i)Qi(dξ)=supQiM(Ξ)1Ni=1NsupξΞ(l(ξ)λξξ^i)ΞQi(dξ)=1Ni=1NsupξΞ(l(ξ)λξξ^i)supQiM(Ξ)ΞQi(dξ)=1Ni=1NsupξΞ(l(ξ)λξξ^i)

よって、等号が成立する。

双対ノルム

xのノルムxの双対ノルムを以下で定義する。

x:=maxy1y,x

lpの共役空間はノルム空間lqに等しい距離同型である。
ただし、1<p<で、qpの共役指数、すなわち、
1p+1q=1
を満たすものである。

fがノルム空間lp上の有界な線形汎関数であるための必要十分条件は、alqが存在して、
f(x)=x,a
が成り立つことである。

しかも、f=aqが成り立つことである。

簡単に書くと
xp=maxyp1y,x=xq

共役関数

HをHilbert空間とし、関数f:H(,]を真であるとする。このとき、H上のf

f(x)=supxH{x,xf(x)}

で定義する。ffの共役関数といわれる。

epi-sum, inf-convolution

Eを線形空間とし、f,g:E(,]をsublinearとする。

(fg)(x)=infxE{f(x)+g(xz)}, xE

で定義される(fg)fgによるepi-sumまたはinf-convolutionという。

Eを線形区間とし、f,g:E(,]をproperな凸関数とする。また、

(fg)(x)=infxE{f(x)+g(xz)}>, xE

とする。

このとき、(fg)(x):E(,]
はproperな凸関数となる。さらに、(fg)=f+gである。

凸解析と不動点近似のp156 定理4.4.2を参照してください。

σΞ(vik):=[χΞ](vik)とおく。

[lk+χΞ](zik)=infvik([lk](zikvik)+[χΞ](vik))=infvik([lk](zikvik)+σΞ(vik))

(infvik([lk](zikvik)+[χΞ](vik)))=([χΞ(lk)](zik))=(χΞ(zik))+(lk(zik))=χΞ(zik)lk(zik)=χΞ(zik)lk(zik)=lk(zik)+χΞ(zik)=(lk+χΞ)(zik)()

4.2 定理1の証明

supQBϵ(P^N)EQ[l(ξ)]=|supQiM(Ξ)1Ni=1NΞl(ξ)Qi(dξ)s.t.1Ni=1NΞξξ^iQi(dξ)ϵ=supQiM(Ξ)infλ01Ni=1NΞl(ξ)Qi(dξ)+λ(ϵ1Ni=1NΞξξ^iQi(dξ))infλ0supQiM(Ξ)1Ni=1NΞl(ξ)Qi(dξ)+λ(ϵ1Ni=1NΞξξ^iQi(dξ))  (12a)=infλ0supQiM(Ξ)λϵ+1Ni=1NΞ(l(ξ)λξξ^i)Qi(dξ)=infλ0λϵ+1Ni=1NsupξΞ(l(ξ)λξξ^i)  (2)=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(l(ξ)λξξ^i)si,iNλ0=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(lk(ξ)maxzikλzik,ξξ^i)si,iN,kKλ0|infλ,siλϵ+1Ni=1Nsis.t.minzikλsupξΞ(lk(ξ)zik,ξξ^i)si,iN,kKλ0  (12e)=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(lk(ξ)zik,ξξ^i)si,iN,kKλ0zikλ=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(lk(ξ)zik,ξξ^i)si,iN,kKzikλ=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(lk(ξ)zik,ξ)+zik,ξ^isi,iN,kKzikλ=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(lk(ξ)+zik,ξ)zik,ξ^isi,iN,kKzikλ=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(zik,ξ(lk(ξ)))zik,ξ^isi,iN,kKzikλ=|infλ,siλϵ+1Ni=1Nsis.t.supξΞ(zik,ξ(lk(ξ)+χΞ(ξ)))zik,ξ^isi,iN,kKzikλ=|infλ,siλϵ+1Ni=1Nsis.t.[lk+χΞ](zik)zik,ξ^isi,iN,kKzikλ=|infλ,si,zik,vikλϵ+1Ni=1Nsis.t.[lk](zikvik)+σΞ(vik)zik,ξ^isizikλ  (4)

仮定4.1のもとで、式(12a)と式(12e)の不等号が等号になることを示す。仮定4.1のもとで、式(12a)は強双対性より等号が成立する。仮定4.1のもとで、minimax定理より式(12e)は等号が成立する。

よって、仮説4.1において、任意のϵ0において、式(10)の最悪ケースの期待コスト問題は式(11)の凸最適化問題の最適値に等しい。

参考文献

[2]
P.M.Esfahani, D.Kuhn, Data-driven distributionally robust optimization using the Wasserstein metric:performance guarantees and tractable reformulations, Springer
[3]
R. Chen and I. C. Paschalidis, Distributionally Robust Learning
投稿日:2022830
OptHub AI Competition

この記事を高評価した人

高評価したユーザはいません

この記事に送られたバッジ

バッジはありません。
バッチを贈って投稿者を応援しよう

バッチを贈ると投稿者に現金やAmazonのギフトカードが還元されます。

投稿者

hdk105
hdk105
14
15028
計測・制御・情報に興味があります. 備忘録として残していきます.

コメント

他の人のコメント

コメントはありません。
読み込み中...
読み込み中
  1. 1. はじめに
  2. 2. Wasserstein距離とは
  3. 3. 分布的ロバスト最適化とは
  4. 4. 最悪ケースの期待コスト問題の凸最適化問題への帰着
  5. 4.1 定理1で使う道具の紹介
  6. 4.2 定理1の証明
  7. 参考文献