論文の概要: Efficient Tail-Aware Generative Optimization via Flow Model Fine-Tuning
- arxiv url: http://arxiv.org/abs/2602.16796v1
- Date: Wed, 18 Feb 2026 19:00:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.296858
- Title: Efficient Tail-Aware Generative Optimization via Flow Model Fine-Tuning
- Title(参考訳): フローモデルファインチューニングによる効率よい爪認識生成最適化
- Authors: Zifan Wang, Riccardo De Santi, Xiaoyu Mo, Michael M. Zavlanos, Andreas Krause, Karl H. Johansson,
- Abstract要約: 下流のユーティリティを最適化するための微調整済みの拡散とフローモデルが、現実のデプロイメントの中心である。
CVaR(Conditional Value-at-Risk)に基づく,原理的かつ効率的な分散微調整アルゴリズムTFFTを提案する。
- 参考スコア(独自算出の注目度): 40.79705260303773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuning pre-trained diffusion and flow models to optimize downstream utilities is central to real-world deployment. Existing entropy-regularized methods primarily maximize expected reward, providing no mechanism to shape tail behavior. However, tail control is often essential: the lower tail determines reliability by limiting low-reward failures, while the upper tail enables discovery by prioritizing rare, high-reward outcomes. In this work, we present Tail-aware Flow Fine-Tuning (TFFT), a principled and efficient distributional fine-tuning algorithm based on the Conditional Value-at-Risk (CVaR). We address two distinct tail-shaping goals: right-CVaR for seeking novel samples in the high-reward tail and left-CVaR for controlling worst-case samples in the low-reward tail. Unlike prior approaches that rely on non-linear optimization, we leverage the variational dual formulation of CVaR to decompose it into a decoupled two-stage procedure: a lightweight one-dimensional threshold optimization step, and a single entropy-regularized fine-tuning process via a specific pseudo-reward. This decomposition achieves CVaR fine-tuning efficiently with computational cost comparable to standard expected fine-tuning methods. We demonstrate the effectiveness of TFFT across illustrative experiments, high-dimensional text-to-image generation, and molecular design.
- Abstract(参考訳): 下流のユーティリティを最適化するための微調整済みの拡散とフローモデルが、現実のデプロイメントの中心である。
既存のエントロピー規則化法は主に期待される報酬を最大化し、尾の挙動を形作るメカニズムを提供しない。
しかし、テール制御は、低いテールが低いリワード障害を制限することによって信頼性を決定するのに対して、上テールは稀で高いリワード結果の優先順位付けによって発見を可能にする。
本研究では, CVaR(Conditional Value-at-Risk)に基づく, 原理的かつ効率的な分散微調整アルゴリズムであるTail-Aware Flow Fine-Tuning(TFFT)を提案する。
右CVaR,左CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVaR,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVa,右CVaの2種類のサンプルをそれぞれそれぞれ検討した。
非線形最適化に依存する従来のアプローチとは異なり、CVaRの変分二重定式化を利用して分離された2段階の手順に分解する:軽量な1次元しきい値最適化ステップと、特定の擬似逆数による単一のエントロピー規則化された微調整プロセスである。
この分解はCVaRファインチューニングを、標準の予測ファインチューニング手法に匹敵する計算コストで効率的に実現する。
実測実験,高次元テキスト・ツー・イメージ生成,分子設計におけるTFFTの有効性を実証する。
関連論文リスト
- A Trainable Optimizer [18.195022468462753]
モデルの全勾配推定器とトレーニング可能な重みを共同で訓練する枠組みを提案する。
Pseudo-linear TOは無視可能な計算オーバーヘッドを発生させ、最小限の乗算しか必要としない。
実験により、TOメソッドはベンチマークアルゴリズムよりも早く収束することが示された。
論文 参考訳(メタデータ) (2025-08-03T14:06:07Z) - To Theoretically Understand Transformer-Based In-Context Learning for Optimizing CSMA [26.87533852488578]
バイナリ指数バックオフ方式はWiFi 7で広く使われているが、動的チャネル環境下ではスループットが低下している。
最近のモデルベースアプローチは、既知のノード密度と固定されたノード密度の下でのバックオフ戦略を単純に最適化する。
本稿では、チャネルアクセスを最適化するためのトランスフォーマーベースのインコンテキスト学習(ICL)理論を初めて提案する。
論文 参考訳(メタデータ) (2025-07-31T23:31:23Z) - Divergence Minimization Preference Optimization for Diffusion Model Alignment [66.31417479052774]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
DMPOは、異なるベースモデルとテストセットで既存のテクニックを一貫して上回り、適合させることができる。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Flow-GRPO: Training Flow Matching Models via Online RL [80.62659379624867]
本稿では,オンライン政策強化学習をフローマッチングモデルに統合する最初の方法であるFlow-GRPOを提案する。
提案手法では,(1)決定論的正規微分方程式を同値な微分方程式に変換するODE-to-SDE変換と,(2)推論ステップの数を維持しながらトレーニングの段階を短縮するDenoising Reduction戦略の2つの主要な戦略を用いる。
論文 参考訳(メタデータ) (2025-05-08T17:58:45Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - BAMSProd: A Step towards Generalizing the Adaptive Optimization Methods
to Deep Binary Model [34.093978443640616]
最近のBNN(Binary Neural Networks)の性能は大幅に低下している。
BNNの効果的かつ効率的なトレーニングを保証することは未解決の問題である。
そこで本研究では,BAMSProdアルゴリズムを用いて,深部二元モデルの収束特性が量子化誤差と強く関連していることを示す。
論文 参考訳(メタデータ) (2020-09-29T06:12:32Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。