深層カルマンフィルタ (3)
今回は変分自己符号化器 (VAE) における確率勾配変分ベイズ (SGVB) の説明。 なお、SGVB 自体の説明は本家の論文、および以下のものを参考にしたのでそちらも参照されたい。 正直、下の資料さえあれば今回の内容は飛ばしても良い気もするが、一応まとめておく。
- Auto-Encoding Variational Bayes [arXiv:1312.6114] – ご注文は機械学習ですか?
- http://deeplearning.jp/wp-content/uploads/2014/04/20150717-suzuki.pdf
Stochastic gradient variational bayes (SGVB)
確率的勾配変分ベイズ (stochastic gradient variational bayes; SGVB) とは、雑に言うと確率的勾配法が適用可能なように変分事後分布への制約などが設計された変分ベイズ法である。 変分ベイズ法では変分事後分布に与える制約によりもとの事後分布との近似精度や計算の効率性などが大きく左右されるが、本手法は深層学習(多層パーセプトロン)による近似にフォーカスを当てた手法ということらしい。
さて、VAE の対数周辺尤度の変分下限を再掲する(前回の結果に誤植があったので修正)。
上式の目的関数を最大化するパラメータ を(確率的)勾配法を用いて求めるためには、少なくとも上の関数が で微分可能であることが要求される。 この要求を満たすよう、 への制約を考えるのが今回の話題である。
まず第二項に着目すると、これは事前分布が正規分布であるという前提から と(平均、共分散が多層パーセプトロンで近似された)多変量正規分布で与えられると仮定すれば次のように解析的に求めることができる。
)
次に第一項を見てみる。 これについては、期待値計算を について直接求めるのではなく、 に依存しない別の確率変数に関して求めることで で微分可能にする (reparametrization trick) 。 具体的には、 が次のように確率変数 の写像で得られると仮定する。
および の具体的な形は、先程 に課した制約を考慮すると次のようになる。
ここで の平方根行列 はコレスキー分解などを用いて求めることができる。
以上の結果を用いて、期待値計算にモンテカルロ近似を適用すると、期待値計算は次のように得られる。
上式はパラメータ に関して微分可能であるため、(確率的)勾配法を適用して最適化を行うことができる。実際の勾配の導出は面倒なので省略。
ごちゃごちゃしてしまったが、要は「変分事後分布(認識モデル)を正規分布に制約する」ことと「パラメータに依存する分布からの直接のサンプリングを避けるために変数変換を行う」ことが重要なことであり、深層カルマンフィルタでもこの方法を用いて学習アルゴリズムの導出を行うことになる。