論文の概要: Flow-Factory: A Unified Framework for Reinforcement Learning in Flow-Matching Models
- arxiv url: http://arxiv.org/abs/2602.12529v1
- Date: Fri, 13 Feb 2026 02:21:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.813152
- Title: Flow-Factory: A Unified Framework for Reinforcement Learning in Flow-Matching Models
- Title(参考訳): Flow-Factory:フローマッチングモデルにおける強化学習のための統一フレームワーク
- Authors: Bowen Ping, Chengyou Jia, Minnan Luo, Hangwei Qian, Ivor Tsang,
- Abstract要約: Flow-Factoryは、モジュール型のレジストリベースのアーキテクチャを通じて、アルゴリズム、モデル、報酬を分離するフレームワークである。
これにより研究者は、将来のイノベーションを迅速にプロトタイプ化し、拡張することができる。
Flow-Factoryは、プロダクション対応メモリ最適化、柔軟なマルチリワードトレーニング、シームレスな分散トレーニングサポートを提供する。
- 参考スコア(独自算出の注目度): 30.65606997113044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning has emerged as a promising paradigm for aligning diffusion and flow-matching models with human preferences, yet practitioners face fragmented codebases, model-specific implementations, and engineering complexity. We introduce Flow-Factory, a unified framework that decouples algorithms, models, and rewards through through a modular, registry-based architecture. This design enables seamless integration of new algorithms and architectures, as demonstrated by our support for GRPO, DiffusionNFT, and AWM across Flux, Qwen-Image, and WAN video models. By minimizing implementation overhead, Flow-Factory empowers researchers to rapidly prototype and scale future innovations with ease. Flow-Factory provides production-ready memory optimization, flexible multi-reward training, and seamless distributed training support. The codebase is available at https://github.com/X-GenGroup/Flow-Factory.
- Abstract(参考訳): 強化学習は、拡散とフローマッチングモデルを人間の好みに合わせるための有望なパラダイムとして登場したが、実践者は断片化されたコードベース、モデル固有の実装、エンジニアリングの複雑さに直面している。
Flow-Factoryは、モジュール型のレジストリベースのアーキテクチャを通じて、アルゴリズム、モデル、報酬を分離する統合フレームワークです。
この設計は、GRPO、DiffusionNFT、AWMをFlux、Qwen-Image、WANビデオモデルでサポートすることによって、新しいアルゴリズムとアーキテクチャのシームレスな統合を可能にします。
実装のオーバーヘッドを最小限にすることで、Flow-Factoryは研究者たちに、将来のイノベーションを素早くプロトタイプ化し、拡張できるようにします。
Flow-Factoryは、プロダクション対応メモリ最適化、柔軟なマルチリワードトレーニング、シームレスな分散トレーニングサポートを提供する。
コードベースはhttps://github.com/X-GenGroup/Flow-Factory.orgで公開されている。
関連論文リスト
- Efficient Training of Diffusion Mixture-of-Experts Models: A Practical Recipe [51.26601054313749]
Diffusion MoEモデルに対する最近の取り組みは、主により洗練されたルーティングメカニズムの開発に焦点を当てている。
大規模言語モデル(LLM)で確立されたMoE設計パラダイムに着想を得て,効率的な拡散MoEモデルを構築する上で重要なアーキテクチャ要素のセットを特定する。
本稿では,潜在空間拡散フレームワークと画素空間拡散フレームワークの両方に効率よく適用可能な新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-12-01T03:52:31Z) - NExT-OMNI: Towards Any-to-Any Omnimodal Foundation Models with Discrete Flow Matching [64.10695425442164]
NExT-OMNI(英語版)は、離散フローパラダイムによる統一モデリングを実現するオープンソース・オムニモーダル・ファンデーション・モデルである。
NExT-OMNIは、大規模なインターリーブ付きテキスト、画像、ビデオ、オーディオデータに基づいて訓練され、マルチモーダル生成および理解ベンチマーク上で競合するパフォーマンスを提供する。
さらなる研究を進めるために、トレーニングの詳細、データプロトコル、およびコードとモデルチェックポイントの両方をオープンソース化する。
論文 参考訳(メタデータ) (2025-10-15T16:25:18Z) - Revolutionizing Reinforcement Learning Framework for Diffusion Large Language Models [49.911784762244814]
TraceRLは拡散言語モデル(DLM)のための軌道対応強化学習フレームワークである
我々は最先端の拡散言語モデル、すなわち TraDo を導出する。
TraDo-8B-InstructはQwen2.5-7B-Instructで6.1%、Llama3.1-8B-Instructで51.3%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-09-08T17:58:06Z) - FedPromo: Federated Lightweight Proxy Models at the Edge Bring New Domains to Foundation Models [16.83959862897466]
Federated Learning(FL)は、分散データ上でディープラーニングモデルをトレーニングするための確立したパラダイムである。
我々はFedPromoを紹介した。FedPromoは、中央サーバに格納された大規模基盤モデルの、リモートクライアントのみにのみ遭遇する新しいドメインへの効率的な適応を可能にする新しいフレームワークである。
論文 参考訳(メタデータ) (2025-08-05T12:00:49Z) - JanusFlow: Harmonizing Autoregression and Rectified Flow for Unified Multimodal Understanding and Generation [36.93638123812204]
画像の理解と生成を単一のモデルで統一する強力なフレームワークであるJanusFlowを紹介します。
JanusFlowは自動回帰言語モデルと修正フローを統合する。
論文 参考訳(メタデータ) (2024-11-12T17:55:10Z) - LLM-KT: A Versatile Framework for Knowledge Transfer from Large Language Models to Collaborative Filtering [0.07793154724386657]
LLM生成機能をシームレスに統合することにより、協調フィルタリング(CF)モデルを強化するフレキシブルなフレームワークを提案する。
我々のフレームワークは、これらの機能を任意のCFモデルの中間層に注入し、モデルが内部の埋め込みを再構築し、活用できるようにする。
私たちのフレームワークは統合と修正を容易にするために構築されており、研究者や開発者がCFモデル機能を拡張するための強力なツールを提供しています。
論文 参考訳(メタデータ) (2024-11-01T13:09:30Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - TinyLLaVA Factory: A Modularized Codebase for Small-scale Large Multimodal Models [22.214259364977256]
小型大型モデル(LMM)のためのオープンソースのモジュールであるTinyLLaVA Factoryについて紹介する。
TinyLLaVA Factoryはシステム全体を交換可能なコンポーネントにモジュール化し、各コンポーネントは最先端のモデルとメソッドのスイートを統合する。
TinyLLaVA Factoryは、ユーザが独自のLMMをカスタマイズできるだけでなく、一般的なトレーニングレシピを提供して、コーディング作業の少ないモデルの事前トレーニングと微調整を可能にしている。
論文 参考訳(メタデータ) (2024-05-20T05:11:02Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。