論文の概要: Generative Drifting is Secretly Score Matching: a Spectral and Variational Perspective
- arxiv url: http://arxiv.org/abs/2603.09936v1
- Date: Tue, 10 Mar 2026 17:30:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.503527
- Title: Generative Drifting is Secretly Score Matching: a Spectral and Variational Perspective
- Title(参考訳): 生成的ドリフトはひそかにスコアマッチング:スペクトルと変分の視点から
- Authors: Erkan Turan, Maks Ovsjanikov,
- Abstract要約: ドリフトによる生成モデリングは、カーネルベースのドリフト演算子を通じて最先端のワンステップ画像生成を実現した。
ガウス核の下では、ドリフト作用素はちょうど滑らかな分布のスコア差である。
- 参考スコア(独自算出の注目度): 33.2175112734242
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Modeling via Drifting has recently achieved state-of-the-art one-step image generation through a kernel-based drift operator, yet the success is largely empirical and its theoretical foundations remain poorly understood. In this paper, we make the following observation: \emph{under a Gaussian kernel, the drift operator is exactly a score difference on smoothed distributions}. This insight allows us to answer all three key questions left open in the original work: (1) whether a vanishing drift guarantees equality of distributions ($V_{p,q}=0\Rightarrow p=q$), (2) how to choose between kernels, and (3) why the stop-gradient operator is indispensable for stable training. Our observations position drifting within the well-studied score-matching family and enable a rich theoretical perspective. By linearizing the McKean-Vlasov dynamics and probing them in Fourier space, we reveal frequency-dependent convergence timescales comparable to \emph{Landau damping} in plasma kinetic theory: the Gaussian kernel suffers an exponential high-frequency bottleneck, explaining the empirical preference for the Laplacian kernel. We also propose an exponential bandwidth annealing schedule $σ(t)=σ_0 e^{-rt}$ that reduces convergence time from $\exp(O(K_{\max}^2))$ to $O(\log K_{\max})$. Finally, by formalizing drifting as a Wasserstein gradient flow of the smoothed KL divergence, we prove that the stop-gradient operator is derived directly from the frozen-field discretization mandated by the JKO scheme, and removing it severs training from any gradient-flow guarantee. This variational perspective further provides a general template for constructing novel drift operators, demonstrated with a Sinkhorn divergence drift.
- Abstract(参考訳): ドリフトによる生成モデリングは、最近カーネルベースのドリフト演算子を通じて最先端のワンステップ画像生成を実現しているが、その成功は大半は経験的であり、その理論的基礎はよく分かっていない。
本稿では, ガウス核上でのemph{under a Gaussian kernel, ドリフト作用素は, ちょうど滑らかな分布のスコア差である。
この洞察により、原著に残されている3つの重要な疑問に答えることができる:(1) 消滅するドリフトが分布の等式を保証するかどうか(V_{p,q}=0\Rightarrow p=q$)、(2) カーネルの選択方法、(3) 停止段階作用素が安定した訓練に不可欠である理由である。
我々の観測は、よく研究されたスコアマッチングファミリー内のドリフトの位置を定め、豊かな理論的視点を可能にした。
マッキーン・ヴラソフの力学を線形化してフーリエ空間でそれらを探索することにより、プラズマ運動論において 'emph{Landau damping} に匹敵する周波数依存収束時間スケールが明らかになる: ガウス核は指数関数的に高周波のボトルネックに悩まされ、ラプラシア核に対する経験的嗜好を説明する。
また、指数帯域アニーリングスケジュールを$σ(t)=σ_0 e^{-rt}$とすることで、収束時間を$\exp(O(K_{\max}^2))$から$O(\log K_{\max})$に短縮する。
最後に、スムーズなKL分散のワッサースタイン勾配流としてドリフトを定式化することにより、停止勾配作用素は、JKOスキームによって強制される凍結場離散化から直接導出され、任意の勾配流保証からセバートレーニングを除去することを示す。
この変分的視点はさらに、シンクホーン発散ドリフトで実証された新しいドリフト作用素を構築するための一般的なテンプレートを提供する。
関連論文リスト
- A Unified View of Drifting and Score-Based Models [92.51878018325031]
ドリフトがカーネル平滑分布にスコアベースの定式化を許すことを示すことにより,拡散モデルの背後にあるスコアマッチング原理との関係を正確にする。
一般的なラプラス核に対して正確な分解を導出し、ラプラス核に対してドリフトが低温および高次元状態におけるスコアマッチングの正確なプロキシであることを示す厳密な誤差境界を証明した。
論文 参考訳(メタデータ) (2026-03-08T07:41:36Z) - Renormalizable Spectral-Shell Dynamics as the Origin of Neural Scaling Laws [2.779943773196378]
高い非線形最適化ダイナミクスにもかかわらず、ディープ・ネットワーク・トレーニングは単純なマクロ構造に従うことを示す。
平均二乗誤差損失の場合、トレーニングエラーは$dot e_t=-M(t)e_t$と$M(t)=J_(t)J_(t)!*$として進化する。
このフレームワークは、ニューラルスケーリング法則と二重降下を説明し、遅延(NTKライクな)トレーニングと特徴学習を同一スペクトルシェルの2つの限界として統一する。
論文 参考訳(メタデータ) (2025-12-11T08:38:46Z) - Contraction and entropy production in continuous-time Sinkhorn dynamics [0.6423239719448169]
以前は非正としか知られていなかったシンクホーン流のエントロピー生成速度を正確に同定する。
この流れは, ターゲット境界面上の可逆マルコフ力学を, オンサーガー勾配流として誘導することを示す。
我々は、Sinkhorn LSIの即時的なユースケースとして、生成モデルを訓練する潜在空間の設計原理と、離散時間アルゴリズムの停止アルゴリズムの2つを挙げる。
論文 参考訳(メタデータ) (2025-10-14T15:32:15Z) - Driving a Quantum Phase Transition at Arbitrary Rate: Exact solution of the Transverse-Field Ising model [0.0]
磁場後における横磁場イジングモデルにおける量子相転移の交叉を任意の速度で検討する。
線形化クエンチの完了時に, 欠陥密度, 完備kink数分布, 累積量を解析した。
論文 参考訳(メタデータ) (2025-01-16T19:03:37Z) - On the Wasserstein Convergence and Straightness of Rectified Flow [54.580605276017096]
Rectified Flow (RF) は、ノイズからデータへの直流軌跡の学習を目的とした生成モデルである。
RFのサンプリング分布とターゲット分布とのワッサーシュタイン距離に関する理論的解析を行った。
本稿では,従来の経験的知見と一致した1-RFの特異性と直線性を保証する一般的な条件について述べる。
論文 参考訳(メタデータ) (2024-10-19T02:36:11Z) - Accelerated Bayesian imaging by relaxed proximal-point Langevin sampling [4.848683707039751]
本稿では, 画像逆問題におけるベイズ推定を行うために, マルコフ近位連鎖モンテカルロ法を提案する。
モロー・ヨシダの滑らか化によって滑らかにあるいは正規化されるモデルに対しては、中間点は過度に損傷されたランゲヴィン拡散の暗黙の離散化と等価である。
kappa$-strongly log-concaveのターゲットに対しては、提供された非漸近収束解析も最適な時間ステップを特定する。
論文 参考訳(メタデータ) (2023-08-18T10:55:49Z) - An Explicit Expansion of the Kullback-Leibler Divergence along its
Fisher-Rao Gradient Flow [8.052709336750823]
$pirhollback$が複数のモードを示すとき、$pirhollback$は、潜在的な関数とは無関係であることを示す。
私たちは$textKLの明示的な拡張を提供します。
KL。
KL。
KL。
KL。
KL。
KL。
KL。
KL。
KL。
KL。
KL。
KL。
論文 参考訳(メタデータ) (2023-02-23T18:47:54Z) - Debiased Sinkhorn barycenters [110.79706180350507]
最適輸送(OT)におけるエントロピー正則化(Entropy regularization)は、機械学習におけるWassersteinメトリクスやバリセンタに対する近年の関心の原動力となっている。
このバイアスがエントロピー正則化器を定義する基準測度とどのように密接に関連しているかを示す。
両世界の長所を保ち、エントロピーを滑らかにしないシンクホーン様の高速な反復をデバイアスド・ワッサースタインのバリセンタとして提案する。
論文 参考訳(メタデータ) (2020-06-03T23:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。