論文の概要: Curriculum Sampling: A Two-Phase Curriculum for Efficient Training of Flow Matching
- arxiv url: http://arxiv.org/abs/2603.12517v1
- Date: Thu, 12 Mar 2026 23:29:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.807808
- Title: Curriculum Sampling: A Two-Phase Curriculum for Efficient Training of Flow Matching
- Title(参考訳): カリキュラムサンプリング:フローマッチングを効果的に訓練するための2相カリキュラム
- Authors: Pengwei Sun,
- Abstract要約: タイムステップサンプリング$p(t)$は、Flow Matchingモデルにおける中心的な設計選択である。
中偏差サンプリングは早期収束を加速するが,一様サンプリングよりも忠実度が劣ることを示す。
高速な構造学習のための中間バイアスサンプリングから始まる2相スケジュールである textbfCurriculum Smpling を提案し,境界修正のための一様サンプリングに切り替える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Timestep sampling $p(t)$ is a central design choice in Flow Matching models, yet common practice increasingly favors static middle-biased distributions (e.g., Logit-Normal). We show that this choice induces a speed--quality trade-off: middle-biased sampling accelerates early convergence but yields worse asymptotic fidelity than Uniform sampling. By analyzing per-timestep training losses, we identify a U-shaped difficulty profile with persistent errors near the boundary regimes, implying that under-sampling the endpoints leaves fine details unresolved. Guided by this insight, we propose \textbf{Curriculum Sampling}, a two-phase schedule that begins with middle-biased sampling for rapid structure learning and then switches to Uniform sampling for boundary refinement. On CIFAR-10, Curriculum Sampling improves the best FID from $3.85$ (Uniform) to $3.22$ while reaching peak performance at $100$k rather than $150$k training steps. Our results highlight that timestep sampling should be treated as an evolving curriculum rather than a fixed hyperparameter.
- Abstract(参考訳): タイムステップサンプリング$p(t)$はFlow Matchingモデルの中心的な設計選択であるが、一般的には静的な中間バイアス分布(Logit-Normalなど)を好んでいる。
中間バイアスサンプリングは早期収束を加速するが、一様サンプリングよりも漸近的忠実度は低下する。
時間単位のトレーニング損失を解析することにより,境界条件付近で持続的な誤差を伴うU字型難易度プロファイルを同定し,エンドポイントのアンダーサンプリングが詳細を未解決のまま残していることを示す。
この知見に導かれて、2段階のスケジュールである「textbf{Curriculum Sampling}」を提案し、これは高速な構造学習のための中間バイアスサンプリングから始まり、境界修正のための一様サンプリングに切り替える。
CIFAR-10では、Curriculum Smplingは最高のFIDを$3.85$(Uniform)から$3.22$に改善し、最高性能は150$kのトレーニングステップではなく$100$kに達した。
以上の結果から,時間ステップサンプリングは,固定されたハイパーパラメータではなく,進化するカリキュラムとして扱うべきであることが示唆された。
関連論文リスト
- Wedge Sampling: Efficient Tensor Completion with Nearly-Linear Sample Complexity [9.42598427201735]
低ランクテンソル補完のための新しい非適応サンプリングスキームであるウェッジサンプリングを導入する。
次数$kの低ランクテンソルの次元$n倍の倍数n$を、そのエントリのサブセットから復元する。
論文 参考訳(メタデータ) (2026-02-05T16:47:13Z) - Scaling Adversarial Training via Data Selection [0.0]
本稿では,各ミニバッチにおける臨界サンプルのサブセットのみを摂動するemphSelective Adversa Trainingを提案する。
MNIST と CIFAR-10 の実験により,提案手法は PGD の完全対向訓練に匹敵する,あるいはそれ以上の堅牢性を達成できることが示された。
論文 参考訳(メタデータ) (2025-12-26T15:50:33Z) - Closing the Approximation Gap of Partial AUC Optimization: A Tale of Two Formulations [121.39938773554523]
ROC曲線の下の領域(AUC)は、クラス不均衡と決定制約の両方を持つ実世界のシナリオにおける重要な評価指標である。
PAUC最適化の近似ギャップを埋めるために,2つの簡単なインスタンス単位のミニマックス修正を提案する。
得られたアルゴリズムは、サンプルサイズと典型的な一方方向と双方向のPAUCに対して$O(-2/3)$の収束率の線形パーイテレーション計算複雑性を享受する。
論文 参考訳(メタデータ) (2025-12-01T02:52:33Z) - CarBoN: Calibrated Best-of-N Sampling Improves Test-time Reasoning [62.56541355300587]
本稿では,高逆推論経路に向けてモデルを適応的に修正する一般的なテスト時間校正フレームワークを提案する。
本フレームワークでは,まず解空間を探索し,次にロジットの校正を学習する二相法であるCarBoNを提案する。
MATH-500とAIME-2024の実験では、CarBoNは効率を向上し、同じ精度に達するために最大4倍のロールアウトが可能である。
論文 参考訳(メタデータ) (2025-10-17T14:04:37Z) - Convergence, design and training of continuous-time dropout as a random batch method [0.0]
ランダムバッチ方式のレンズを用いた連続時間モデルにおけるドロップアウト正規化について検討する。
我々は、長さ$h$の時間間隔でニューロンのバッチをサンプリングすることによって、ドロップアウトを模倣する、偏りのない、よく考えられた推定器を構築した。
次に、単層ニューラルネットワークを専門とし、分類とフローマッチングの理論を検証する。
論文 参考訳(メタデータ) (2025-10-15T04:19:01Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - An analysis of over-sampling labeled data in semi-supervised learning
with FixMatch [66.34968300128631]
ほとんどの半教師付き学習手法は、ミニバッチを訓練する際にラベルをオーバーサンプルする。
本稿では,この実践が学習と方法を改善するかどうかを考察する。
ラベル付けの有無に関わらず、トレーニングデータから各ミニバッチを均一にサンプリングする別の設定と比較する。
論文 参考訳(メタデータ) (2022-01-03T12:22:26Z) - Robust Sampling in Deep Learning [62.997667081978825]
ディープラーニングは、オーバーフィッティングを減らし、一般化を改善するために正規化メカニズムを必要とする。
分散ロバスト最適化に基づく新しい正規化手法によりこの問題に対処する。
トレーニング中は、最悪のサンプルが最適化に最も貢献するものであるように、その正確性に応じてサンプルの選択が行われる。
論文 参考訳(メタデータ) (2020-06-04T09:46:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。