論文の概要: Gauge Flow Models
- arxiv url: http://arxiv.org/abs/2507.13414v1
- Date: Thu, 17 Jul 2025 12:24:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.089442
- Title: Gauge Flow Models
- Title(参考訳): ゲージ流モデル
- Authors: Alexander Strunk, Roland Assam,
- Abstract要約: 学習可能なゲージ場をフロー正規微分方程式(ODE)に組み込むゲージフローモデル
ガウス混合モデルにおけるフローマッチングを用いた実験は、ガウスフローモデルが従来のフローモデルと同等かそれ以上の大きさのモデルよりもはるかに優れた性能が得られることを示した。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Gauge Flow Models, a novel class of Generative Flow Models. These models incorporate a learnable Gauge Field within the Flow Ordinary Differential Equation (ODE). A comprehensive mathematical framework for these models, detailing their construction and properties, is provided. Experiments using Flow Matching on Gaussian Mixture Models demonstrate that Gauge Flow Models yields significantly better performance than traditional Flow Models of comparable or even larger size. Additionally, unpublished research indicates a potential for enhanced performance across a broader range of generative tasks.
- Abstract(参考訳): 本稿では,生成フローモデルの新しいクラスであるGauge Flow Modelsを紹介する。
これらのモデルは、学習可能なゲージ場をフロー正規微分方程式(ODE)に組み込む。
これらのモデルの構成と特性を詳述した包括的な数学的枠組みが提供される。
ガウス混合モデルにおけるフローマッチングを用いた実験は、ガウスフローモデルが従来のフローモデルと同等かそれ以上の大きさのモデルよりもはるかに優れた性能が得られることを示した。
さらに、未発表の研究は、幅広い生成タスクにわたるパフォーマンス向上の可能性を示している。
関連論文リスト
- Higher Gauge Flow Models [44.99833362998488]
より高次ゲージフローモデルはL$_infty$-代数を利用して、リー代数を効果的に拡張する。
この拡張により、高次幾何学と高次群に関連する高次対称性を生成フローモデルの枠組みに統合することができる。
論文 参考訳(メタデータ) (2025-07-22T08:16:06Z) - Jet: A Modern Transformer-Based Normalizing Flow [62.2573739835562]
本稿では,結合型正規化フローモデルの設計を再考する。
よりシンプルなアーキテクチャで、最先端の定量的、質的なパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-12-19T18:09:42Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - A mean-field games laboratory for generative modeling [5.837881923712394]
平均場ゲーム(MFG)は、生成モデルの説明、拡張、設計のためのフレームワークである。
本稿では,MFGの最適条件について検討し,各生成モデルの数学的特性について検討する。
我々は,標準SGMよりも優れた性能を有するHJB正規化SGMを提案し,実演する。
論文 参考訳(メタデータ) (2023-04-26T13:08:50Z) - Distilling the Knowledge from Normalizing Flows [22.578033953780697]
正規化フローは、複数の音声および視覚問題において強力な性能を示す生成モデルの強力なクラスである。
本稿では, 簡易蒸留法を提案し, 画像超解像と音声合成のための現状条件付きフローベースモデルの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-24T00:10:22Z) - Generative Flows with Invertible Attentions [135.23766216657745]
生成フローモデルに対する2種類の非可逆的注意機構を導入する。
フロー特徴写像の2分割毎に注意重みと入力表現を学習するために,分割に基づく注意機構を利用する。
提案手法は, トラクタブルジャコビアン行列を用いた非可逆アテンションモジュールをフローベースモデルの任意の位置にシームレスに統合する。
論文 参考訳(メタデータ) (2021-06-07T20:43:04Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Augmented Normalizing Flows: Bridging the Gap Between Generative Flows
and Latent Variable Models [11.206144910991481]
本研究では,拡張データ空間上での新たな生成フローの族を提案する。これは,サンプリングの計算コストを大幅に増大させることなく,表現性を向上させることを目的としている。
本稿では,フローベース生成モデリングの標準ベンチマークにおける最先端性能について述べる。
論文 参考訳(メタデータ) (2020-02-17T17:45:48Z) - Developing a Hybrid Data-Driven, Mechanistic Virtual Flow Meter -- a
Case Study [0.0]
本研究は、上記の2つの専門分野の技術を生かしたハイブリッド・モデリング手法について検討し、良好な生産チョークをモデル化する。
チョークは、第1原理方程式の単純化されたセットとニューラルネットワークで表現され、弁流係数を推定する。
論文 参考訳(メタデータ) (2020-02-07T12:35:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。