拡散モデル原論文の話をうまくお伝え出来なかったのは私の説明不足だったな 拡散モデルの逆過程を学習させる時にガウス分布に近似された関数q(x_n-1|x_n)をニューラルネットで近似すれば良いわけで分布を特徴付けるパラメーターを選ぶので平均や分散を学習させればいい 損失関数を選ぶ際にこれをクロスエントロピーとして最小化する つまりカルバックライブラーダイバージェンスの最小化だよねということで幾何に落とし込める ここからは曖昧だけどKLダイバージェンスの最小化は不等式の最小値だから関数の凸性からJensen不等式持ってこれて非平衡熱力学のアナロジーだよねってことだっけ 最後のはだいぶ熱いけど理解がこぼれてる