論文の概要: AlignFlow: Improving Flow-based Generative Models with Semi-Discrete Optimal Transport
- arxiv url: http://arxiv.org/abs/2510.15038v1
- Date: Thu, 16 Oct 2025 18:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.337001
- Title: AlignFlow: Improving Flow-based Generative Models with Semi-Discrete Optimal Transport
- Title(参考訳): AlignFlow: 半離散最適輸送によるフローベース生成モデルの改善
- Authors: Lingkai Kong, Molei Tao, Yang Liu, Bryan Wang, Jinmiao Fu, Chien-Chih Wang, Huidong Liu,
- Abstract要約: フローベース生成モデル(FGM)はノイズを複雑なデータ分布に変換する。
既存のOTベースの手法では、サンプルノイズとデータポイントの(ミニ)バッチを用いてOTプランを推定する。
本稿では、雑音分布とデータ点との明示的最適アライメントを確立することにより、FGMのトレーニングを強化する新しいアプローチであるAlignFlowを紹介する。
- 参考スコア(独自算出の注目度): 32.58223362864546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow-based Generative Models (FGMs) effectively transform noise into complex data distributions. Incorporating Optimal Transport (OT) to couple noise and data during FGM training has been shown to improve the straightness of flow trajectories, enabling more effective inference. However, existing OT-based methods estimate the OT plan using (mini-)batches of sampled noise and data points, which limits their scalability to large and high-dimensional datasets in FGMs. This paper introduces AlignFlow, a novel approach that leverages Semi-Discrete Optimal Transport (SDOT) to enhance the training of FGMs by establishing an explicit, optimal alignment between noise distribution and data points with guaranteed convergence. SDOT computes a transport map by partitioning the noise space into Laguerre cells, each mapped to a corresponding data point. During FGM training, i.i.d. noise samples are paired with data points via the SDOT map. AlignFlow scales well to large datasets and model architectures with negligible computational overhead. Experimental results show that AlignFlow improves the performance of a wide range of state-of-the-art FGM algorithms and can be integrated as a plug-and-play component. Code is available at: https://github.com/konglk1203/AlignFlow.
- Abstract(参考訳): フローベース生成モデル(FGM)は、ノイズを複雑なデータ分布に変換する。
FGM訓練中の音とデータに最適輸送(OT)を組み込むことにより,流路の直線性を向上し,より効果的な推論を可能にした。
しかし、既存のOTベースの手法では、サンプルノイズとデータポイントの(ミニ)バッチを用いてOTプランを推定し、そのスケーラビリティをFGMの大規模かつ高次元のデータセットに制限する。
本稿では、半離散最適輸送(SDOT)を利用した新しいアプローチであるAlignFlowを紹介し、FGMのトレーニングを強化する。
SDOTは、ノイズ空間をラゲールセルに分割して輸送マップを計算し、それぞれ対応するデータポイントにマッピングする。
FGMトレーニング中、すなわちノイズサンプルはSDOTマップを介してデータポイントとペアリングされる。
AlignFlowは、無視できる計算オーバーヘッドを持つ大規模なデータセットやモデルアーキテクチャにうまくスケールする。
実験結果から,AlignFlowは幅広い最先端FGMアルゴリズムの性能を向上し,プラグイン・アンド・プレイコンポーネントとして統合可能であることが示された。
コードは、https://github.com/konglk1203/AlignFlow.comで入手できる。
関連論文リスト
- FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Local Flow Matching Generative Models [19.859984725284896]
フローマッチング(英: Flow Matching, FM)は、2つの分布を補間する連続的かつ非可逆的な流れを学習するためのシミュレーション不要な手法である。
FMサブモデルのシーケンスを連続的に学習するLFM(Local Flow Matching)と呼ばれるステップワイズFMモデルを提案する。
FMと比較して, LFMの訓練効率と競争的生成性能の改善を実証的に実証した。
論文 参考訳(メタデータ) (2024-10-03T14:53:10Z) - Boundary-aware Decoupled Flow Networks for Realistic Extreme Rescaling [49.215957313126324]
Invertible rescaling Network (IRN) やgenerative adversarial Network (GAN) などを含む最近の生成手法は、画像再スケーリングにおいて例外的な性能を示した。
しかし、IRNベースの手法は過度に滑らかな結果を生成する傾向にあり、一方、GANベースの手法は偽の細部を容易に生成する。
本稿では,現実的かつ視覚的に満足な結果を生成するために,境界対応デカップリングフローネットワーク(BDFlow)を提案する。
論文 参考訳(メタデータ) (2024-05-05T14:05:33Z) - PaddingFlow: Improving Normalizing Flows with Padding-Dimensional Noise [4.762593660623934]
パディングフロー(PaddingFlow)は,パディング次元雑音による正規化フローを改善する新しいデクエント化法である。
非条件密度推定の主ベンチマークで本手法の有効性を検証した。
この結果から,PaddingFlowはすべての実験において優れた性能を発揮できることがわかった。
論文 参考訳(メタデータ) (2024-03-13T03:28:39Z) - Manifold Interpolating Optimal-Transport Flows for Trajectory Inference [64.94020639760026]
最適輸送流(MIOFlow)を補間するマニフォールド補間法を提案する。
MIOFlowは、散発的なタイムポイントで撮影された静的スナップショットサンプルから、連続的な人口動態を学習する。
本手法は, 胚体分化および急性骨髄性白血病の治療から得られたscRNA-seqデータとともに, 分岐とマージによるシミュレーションデータについて検討した。
論文 参考訳(メタデータ) (2022-06-29T22:19:03Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。