論文の概要: Designing Instance-Level Sampling Schedules via REINFORCE with James-Stein Shrinkage
- arxiv url: http://arxiv.org/abs/2511.22177v1
- Date: Thu, 27 Nov 2025 07:33:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.442315
- Title: Designing Instance-Level Sampling Schedules via REINFORCE with James-Stein Shrinkage
- Title(参考訳): ジェームズ・スタイン収縮を用いたReINFORCEによるインスタンスレベルサンプリングスケジューリングの設計
- Authors: Peiyu Yu, Suraj Kothawade, Sirui Xie, Ying Nian Wu, Hongliang Fei,
- Abstract要約: 凍結したテキスト・ツー・イメージ・サンプルのサンプリングタイムラインを再設定する。
原理的James-Stein推定器に基づく新たな報酬ベースラインを導入する。
我々は、スケジューリングフレームワークを、新しいモデルに依存しないポストトレーニングレバーとして位置付ける。
- 参考スコア(独自算出の注目度): 46.743961849406844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most post-training methods for text-to-image samplers focus on model weights: either fine-tuning the backbone for alignment or distilling it for few-step efficiency. We take a different route: rescheduling the sampling timeline of a frozen sampler. Instead of a fixed, global schedule, we learn instance-level (prompt- and noise-conditioned) schedules through a single-pass Dirichlet policy. To ensure accurate gradient estimates in high-dimensional policy learning, we introduce a novel reward baseline based on a principled James-Stein estimator; it provably achieves lower estimation errors than commonly used variants and leads to superior performance. Our rescheduled samplers consistently improve text-image alignment including text rendering and compositional control across modern Stable Diffusion and Flux model families. Additionally, a 5-step Flux-Dev sampler with our schedules can attain generation quality comparable to deliberately distilled samplers like Flux-Schnell. We thus position our scheduling framework as an emerging model-agnostic post-training lever that unlocks additional generative potential in pretrained samplers.
- Abstract(参考訳): テキスト・トゥ・イメージ・サンプルのトレーニング後のほとんどの方法はモデルウェイトに焦点を当てており、バックボーンを微調整してアライメントするか、数ステップの効率で蒸留する。
凍結したサンプルのサンプリングタイムラインを再スケジュールする。
固定されたグローバルスケジュールの代わりに、単一パスのディリクレポリシを通じてインスタンスレベル(prompt- and noise-conditioned)スケジュールを学習する。
高次元政策学習における正確な勾配推定を保証するため、原理的ジェームズ・シュタイン推定器に基づく新たな報酬ベースラインを導入し、一般的に用いられる変種よりも低い推定誤差を確実に達成し、優れた性能をもたらす。
再スケジュールされたサンプルは、テキストレンダリングや、現代の安定拡散とフラックスモデルファミリ間の合成制御を含む、テキストイメージアライメントを一貫して改善します。
さらに、我々のスケジュールを持つ5ステップのFlux-Devサンプルは、Flux-Schnellのような意図的に蒸留されたサンプルに匹敵する生成品質が得られる。
そこで我々は,本手法を,事前学習したサンプルの新たな生成ポテンシャルを解放する,新たなモデルに依存しないポストトレーニングレバーとして位置づける。
関連論文リスト
- Efficiently Generating Correlated Sample Paths from Multi-step Time Series Foundation Models [66.60042743462175]
時系列基礎モデルから正確な相関サンプルパスを効率的に生成するためのコプラに基づく手法を提案する。
提案手法は, 自己回帰サンプリングよりもはるかに高速に相関したサンプルパスを生成する。
論文 参考訳(メタデータ) (2025-10-02T17:08:58Z) - Temporal Score Rescaling for Temperature Sampling in Diffusion and Flow Models [30.36841165328262]
本稿では,フローマッチングモデルのサンプリング多様性を判断するメカニズムを提案する。
これらの再スケーリングにより、局所的なサンプリング温度を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2025-10-01T17:59:51Z) - Enhancing Sample Selection Against Label Noise by Cutting Mislabeled Easy Examples [74.60723854735237]
トレーニングプロセスの初期段階において,モデルによって正しく予測された誤ラベル例は,特にモデル性能に有害であることを示す。
モデルの後続のトレーニング状態を利用して,早期に同定された自信あるサブセットを再選択するアーリーカットを提案する。
論文 参考訳(メタデータ) (2025-02-12T09:12:45Z) - Self-Guided Generation of Minority Samples Using Diffusion Models [57.319845580050924]
データ多様体の低密度領域に居住する少数サンプルを生成するための新しい手法を提案する。
我々のフレームワークは拡散モデルに基づいて構築されており、ガイドドサンプリングの原理を生かしている。
実データセットのベンチマーク実験により、我々のアプローチは現実的な低自由度マイノリティインスタンスを作成する能力を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-07-16T10:03:29Z) - Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Stable generative modeling using Schrödinger bridges [0.22499166814992438]
本稿では,Schr"odinger BridgesとLangevin dynamicsを組み合わせた生成モデルを提案する。
我々のフレームワークは自然に条件付きサンプルを生成し、ベイズ推論問題に拡張することができる。
論文 参考訳(メタデータ) (2024-01-09T06:15:45Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Boosting Diffusion Models with an Adaptive Momentum Sampler [21.88226514633627]
本稿では,広く使用されているAdamサンプルから着想を得た新しいDPM用リバースサンプルについて述べる。
提案手法は,事前学習した拡散モデルに容易に適用できる。
初期段階から更新方向を暗黙的に再利用することにより,提案するサンプルは,高レベルのセマンティクスと低レベルの詳細とのバランスを良くする。
論文 参考訳(メタデータ) (2023-08-23T06:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。