論文の概要: On the Closed-Form of Flow Matching: Generalization Does Not Arise from Target Stochasticity
- arxiv url: http://arxiv.org/abs/2506.03719v1
- Date: Wed, 04 Jun 2025 08:50:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.243896
- Title: On the Closed-Form of Flow Matching: Generalization Does Not Arise from Target Stochasticity
- Title(参考訳): フローマッチングの閉形式について:ターゲット確率から一般化は生じない
- Authors: Quentin Bertrand, Anne Gagneux, Mathurin Massias, Rémi Emonet,
- Abstract要約: 拡散・流れマッチング技術がなぜ効果的に一般化されるのかを考察する。
高次元設定では、フローマッチング損失の一般化と閉形式バージョンがほぼ等価な損失をもたらすことを示す。
- 参考スコア(独自算出の注目度): 9.174891098192951
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deep generative models can now produce high-quality synthetic samples that are often indistinguishable from real training data. A growing body of research aims to understand why recent methods -- such as diffusion and flow matching techniques -- generalize so effectively. Among the proposed explanations are the inductive biases of deep learning architectures and the stochastic nature of the conditional flow matching loss. In this work, we rule out the latter -- the noisy nature of the loss -- as a primary contributor to generalization in flow matching. First, we empirically show that in high-dimensional settings, the stochastic and closed-form versions of the flow matching loss yield nearly equivalent losses. Then, using state-of-the-art flow matching models on standard image datasets, we demonstrate that both variants achieve comparable statistical performance, with the surprising observation that using the closed-form can even improve performance.
- Abstract(参考訳): 現代の深層生成モデルは、しばしば実際の訓練データと区別できない高品質な合成サンプルを生成することができる。
成長する研究機関は、拡散やフローマッチングといった最近の手法が、なぜこれほど効果的に一般化したのかを理解することを目的としている。
提案した説明の中には,ディープラーニングアーキテクチャの帰納的バイアスと条件流整合損失の確率的性質がある。
本研究では、フローマッチングの一般化に寄与する主要な要因として、損失のノイズの性質である後者を除外する。
まず,高次元設定において,フローマッチング損失の確率的および閉形式バージョンがほぼ等価な損失をもたらすことを実証的に示す。
そして、標準画像データセットの最先端フローマッチングモデルを用いて、両方の変種が同等の統計的性能を達成できることを実証し、クローズドフォームを使用することで性能が向上することを示した。
関連論文リスト
- Solving Inverse Problems with FLAIR [59.02385492199431]
フローベースの潜在生成モデルは、驚くべき品質の画像を生成でき、テキスト・ツー・イメージ生成も可能である。
本稿では,フローベース生成モデルを逆問題の前兆として活用する新しい学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Attentive Contractive Flow with Lipschitz-constrained Self-Attention [25.84621883831624]
注意的収縮フロー(ACF)と呼ばれる新しいアプローチを導入する。
ACFは、フローベースの生成モデル - 収縮フロー - の特別なカテゴリを利用する。
我々は, ACFをプラグアンドプレイ方式で, 各種のアートフローモデルに導入できることを実証した。
論文 参考訳(メタデータ) (2021-09-24T18:02:49Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。