論文の概要: RMFlow: Refined Mean Flow by a Noise-Injection Step for Multimodal Generation
- arxiv url: http://arxiv.org/abs/2602.00849v1
- Date: Sat, 31 Jan 2026 18:27:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.432784
- Title: RMFlow: Refined Mean Flow by a Noise-Injection Step for Multimodal Generation
- Title(参考訳): RM Flow:マルチモーダル生成のためのノイズ注入法による平均流の精製
- Authors: Yuhao Huang, Shih-Hsin Wang, Andrea L. Bertozzi, Bao Wang,
- Abstract要約: 平均フロー (MeanFlow) は効率よく高忠実な画像を生成することができるが、その単一関数評価 (1-NFE) 生成は説得力のある結果を得ることができないことが多い。
我々は、粗い1-NFE MeanFlowトランスポートと調整されたノイズ注入改善ステップを統合した、効率的なマルチモーダル生成モデルRMFlowを紹介する。
RMFlowは、1-NFEのみを使用してテキスト・トゥ・イメージ、コンテキスト・トゥ・分子、時系列生成に関する最先端の成果を、ベースラインのMeanFlowsに匹敵する計算コストで達成する。
- 参考スコア(独自算出の注目度): 12.979642182577157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mean flow (MeanFlow) enables efficient, high-fidelity image generation, yet its single-function evaluation (1-NFE) generation often cannot yield compelling results. We address this issue by introducing RMFlow, an efficient multimodal generative model that integrates a coarse 1-NFE MeanFlow transport with a subsequent tailored noise-injection refinement step. RMFlow approximates the average velocity of the flow path using a neural network trained with a new loss function that balances minimizing the Wasserstein distance between probability paths and maximizing sample likelihood. RMFlow achieves near state-of-the-art results on text-to-image, context-to-molecule, and time-series generation using only 1-NFE, at a computational cost comparable to the baseline MeanFlows.
- Abstract(参考訳): 平均フロー (MeanFlow) は効率よく高忠実な画像を生成することができるが、その単一関数評価 (1-NFE) 生成は説得力のある結果を得ることができないことが多い。
我々は、粗い1-NFE MeanFlowトランスポートと後続のノイズ注入改善ステップを統合した、効率的なマルチモーダル生成モデルRMFlowを導入することで、この問題に対処する。
RMFlowは、確率パス間のワッサースタイン距離を最小化し、サンプル確率を最大化するバランスをとる新しい損失関数でトレーニングされたニューラルネットワークを用いて、フローパスの平均速度を近似する。
RMFlowは、1-NFEのみを使用してテキスト・トゥ・イメージ、コンテキスト・トゥ・分子、時系列生成に関する最先端の成果を、ベースラインのMeanFlowsに匹敵する計算コストで達成する。
関連論文リスト
- Flow Straighter and Faster: Efficient One-Step Generative Modeling via MeanFlow on Rectified Trajectories [14.36205662558203]
Rectified MeanFlowは、単一のリフローステップのみを使用して、修正された軌道に沿った平均速度場をモデル化するフレームワークである。
64、256、および512の解像度でのImageNetの実験では、Re-MeanFlowは、サンプルの品質とトレーニング効率の両方で、一段階の蒸留法とRectified Flow法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-28T16:50:08Z) - AlphaFlow: Understanding and Improving MeanFlow Models [74.64465762009475]
その結果,MeanFlowの目的は,トラジェクティブフローマッチングとトラジェクトリ一貫性という2つの部分に分けられることがわかった。
これらの知見に触発されて、軌跡フローマッチング、ショートカットモデル、MeanFlowを統一する目的の広いファミリーである$alpha$-Flowを紹介した。
クラス条件のImageNet-1K 256x256をバニラのDiTバックボーンでスクラッチからトレーニングすると、$alpha$-Flowはスケールと設定でMeanFlowを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-23T17:45:06Z) - OneFlow: Concurrent Mixed-Modal and Interleaved Generation with Edit Flows [59.052955667723985]
可変長および同時混合モード生成が可能な最初の非自己回帰型マルチモーダルモデルであるOneFlowを提案する。
テキストと画像生成の間の厳格な因果順序を強制する自己回帰モデルとは異なり、OneFlowは個別のテキストトークンに対する挿入ベースのEdit Flowと、画像潜伏者のためのFlow Matchingを組み合わせる。
論文 参考訳(メタデータ) (2025-10-03T20:40:30Z) - Towards High-Order Mean Flow Generative Models: Feasibility, Expressivity, and Provably Efficient Criteria [14.37317011636007]
本稿では,平均加速度場をMeanFlowの目的に組み込む新しい拡張であるSecond-Order MeanFlowに関する理論的研究を紹介する。
まず,平均加速度が1次平均流に類似した一般化整合条件を満たすことを証明し,その実現可能性を確立する。
次に,回路複雑性解析によりその表現性を特徴付け,一様しきい値回路で第2次平均フローサンプリング処理を実現できることを示す。
論文 参考訳(メタデータ) (2025-08-09T21:10:58Z) - Boundary-aware Decoupled Flow Networks for Realistic Extreme Rescaling [49.215957313126324]
Invertible rescaling Network (IRN) やgenerative adversarial Network (GAN) などを含む最近の生成手法は、画像再スケーリングにおいて例外的な性能を示した。
しかし、IRNベースの手法は過度に滑らかな結果を生成する傾向にあり、一方、GANベースの手法は偽の細部を容易に生成する。
本稿では,現実的かつ視覚的に満足な結果を生成するために,境界対応デカップリングフローネットワーク(BDFlow)を提案する。
論文 参考訳(メタデータ) (2024-05-05T14:05:33Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。