論文の概要: Flow Matching on Lie Groups
- arxiv url: http://arxiv.org/abs/2504.00494v1
- Date: Tue, 01 Apr 2025 07:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:08.983572
- Title: Flow Matching on Lie Groups
- Title(参考訳): リー群上のフローマッチング
- Authors: Finn M. Sherry, Bart M. N. Smets,
- Abstract要約: Flow Matching (FM) は最近のジェネレーティブモデリング手法である。
私たちは、$mathfrakX_$からサンプルを流すことで、$mathfrakX_$からサンプルの仕方を学ぶことを目指しています。
我々は、代わりに線分に対して指数曲線を代入することでリー群上のFMに一般化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Flow Matching (FM) is a recent generative modelling technique: we aim to learn how to sample from distribution $\mathfrak{X}_1$ by flowing samples from some distribution $\mathfrak{X}_0$ that is easy to sample from. The key trick is that this flow field can be trained while conditioning on the end point in $\mathfrak{X}_1$: given an end point, simply move along a straight line segment to the end point (Lipman et al. 2022). However, straight line segments are only well-defined on Euclidean space. Consequently, Chen and Lipman (2023) generalised the method to FM on Riemannian manifolds, replacing line segments with geodesics or their spectral approximations. We take an alternative point of view: we generalise to FM on Lie groups by instead substituting exponential curves for line segments. This leads to a simple, intrinsic, and fast implementation for many matrix Lie groups, since the required Lie group operations (products, inverses, exponentials, logarithms) are simply given by the corresponding matrix operations. FM on Lie groups could then be used for generative modelling with data consisting of sets of features (in $\mathbb{R}^n$) and poses (in some Lie group), e.g. the latent codes of Equivariant Neural Fields (Wessels et al. 2025).
- Abstract(参考訳): Flow Matching (FM) は最近の生成的モデリング手法である。我々は、ある分布からサンプルを流すことにより、分布からサンプルを$\mathfrak{X}_1$にする方法を学ぶことを目的としている。
重要なトリックは、このフローフィールドが、端点を$\mathfrak{X}_1$で条件付けしながらトレーニングできることである。
しかし、直線セグメントはユークリッド空間上でのみ well-defined である。
その結果、 Chen と Lipman (2023) はリーマン多様体上の FM への手法を一般化し、線分を測地学やスペクトル近似に置き換えた。
我々は、代わりに線分に対して指数曲線を代入することでリー群上のFMに一般化する。
これにより、必要となるリー群演算(積、逆数、指数、対数)は対応する行列演算によって単純に与えられるので、多くの行列リー群に対する単純で内在的で高速な実装が導かれる。
すると、リー群上のFMは、($\mathbb{R}^n$) と(あるリー群における)ポーズからなるデータ、例えば同変ニューラルネットワークの潜在符号(Wessels et al 2025)からなる生成的モデリングに使うことができる。
関連論文リスト
- Learning Lie Group Generators from Trajectories [0.0]
本研究は, 離散軌道からの行列リー群における生成元回復の逆問題について検討する。
フィードフォワードニューラルネットワークは、このマッピングを複数のグループで学習するように訓練されている。
清潔でノイズの多い条件下では、強い経験的精度を示す。
論文 参考訳(メタデータ) (2025-04-04T07:08:59Z) - Outsourced diffusion sampling: Efficient posterior inference in latent spaces of generative models [65.71506381302815]
本稿では、$p(mathbfxmidmathbfy) propto p_theta(mathbfx)$ という形式の後続分布からサンプリングするコストを償却する。
多くのモデルと関心の制約に対して、ノイズ空間の後方はデータ空間の後方よりも滑らかであり、そのような償却推論に対してより快適である。
論文 参考訳(メタデータ) (2025-02-10T19:49:54Z) - Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Statistical Error Bounds for GANs with Nonlinear Objective Functionals [5.022028859839544]
有限サンプル濃度の不等式という形で、$f$と$Gamma$の一般クラスに対して$(f,Gamma)$-GANsの統計的誤差境界を導出する。
結果は、$(f,Gamma)$-GANsの統計的一貫性を証明し、適切な極限でIMM-GANsの既知の結果に還元する。
論文 参考訳(メタデータ) (2024-06-24T17:42:03Z) - Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Diffusion Maps for Group-Invariant Manifolds [1.90365714903665]
コンパクトリー群$K$の作用の下でデータセットが不変であるときの多様体学習問題を考える。
我々のアプローチは、既存のデータポイントの$K$-orbitsを積分することで、データ誘発グラフのラプラシアンを増大させることである。
正規化されたラプラシアン作用素 $L_N$ がデータ多様体のラプラス・ベルトラミ作用素に収束することを示す。
論文 参考訳(メタデータ) (2023-03-28T17:30:35Z) - Manifold Free Riemannian Optimization [4.484251538832438]
滑らかな多様体 $mathcalM$ を用いて最適化問題を解くための原理的枠組みを提案する。
代数学M におけるコスト関数 $(x_i, y_i) の雑音のないサンプル集合 mathbbR$ と多様体 $mathcalM$ の固有次元を用いる。
論文 参考訳(メタデータ) (2022-09-07T16:19:06Z) - Neural Implicit Manifold Learning for Topology-Aware Density Estimation [15.878635603835063]
現在の生成モデルは、ニューラルネットワークを介して$m$次元の潜在変数をマッピングすることで、$mathcalM$を学ぶ。
我々のモデルは、プッシュフォワードモデルよりも複雑なトポロジーを持つ多様体支持分布を正確に学習できることが示される。
論文 参考訳(メタデータ) (2022-06-22T18:00:00Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Convergence and Sample Complexity of SGD in GANs [15.25030172685628]
SGDによるGAN(Generative Adversarial Networks)のトレーニングにおける収束保証を提供する。
我々は,非線形アクティベーション機能を持つ1層ジェネレータネットワークによってモデル化されたターゲット分布の学習を検討する。
この結果は、ReLUを含む幅広い非線形アクティベーション関数 $phi$ に適用され、切り離された統計との接続によって実現される。
論文 参考訳(メタデータ) (2020-12-01T18:50:38Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。