論文の概要: Equivariant Representation Learning in the Presence of Stabilizers
- arxiv url: http://arxiv.org/abs/2301.05231v2
- Date: Sat, 16 Sep 2023 20:56:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 00:59:48.097856
- Title: Equivariant Representation Learning in the Presence of Stabilizers
- Title(参考訳): 安定器存在下での等変表現学習
- Authors: Luis Armando P\'erez Rey, Giovanni Luca Marchetti, Danica Kragic,
Dmitri Jarnikov, Mike Holenderski
- Abstract要約: EquIN は自由でない群作用、すなわち非自明な対称性によってデータを安定化する群作用に適している。
EquIN は理論上、群論の軌道安定化定理に基礎を置いている。
- 参考スコア(独自算出の注目度): 13.11108596589607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Equivariant Isomorphic Networks (EquIN) -- a method for learning
representations that are equivariant with respect to general group actions over
data. Differently from existing equivariant representation learners, EquIN is
suitable for group actions that are not free, i.e., that stabilize data via
nontrivial symmetries. EquIN is theoretically grounded in the orbit-stabilizer
theorem from group theory. This guarantees that an ideal learner infers
isomorphic representations while trained on equivariance alone and thus fully
extracts the geometric structure of data. We provide an empirical investigation
on image datasets with rotational symmetries and show that taking stabilizers
into account improves the quality of the representations.
- Abstract(参考訳): EquIN(Equivariant Isomorphic Networks)は、データ上の一般的なグループ動作に対して同変である表現を学習する手法である。
既存の同変表現学習者とは異なり、EquINは自由でない群アクション、すなわち非自明な対称性によるデータの安定化に適している。
EquIN は理論上、群論の軌道安定化定理に基礎を置いている。
これは、理想学習者が等分散だけを訓練しながら同型表現を推論し、従ってデータの幾何学的構造を完全に抽出することを保証する。
回転対称性を持つ画像データセットについて実験的検討を行い,安定化器を考慮に入れれば表現の質が向上することを示す。
関連論文リスト
- Neural Fourier Transform: A General Approach to Equivariant
Representation Learning [32.62579746273788]
本稿では,その集団がデータに対してどのように振る舞うかを明確に知ることなく,その集団の潜在線形作用を学習する一般的な枠組みを提案する。
等式学習においてユビキタスに仮定された線形同変関数の存在は,データ空間上の群不変カーネルの存在と等価であることを示す。
論文 参考訳(メタデータ) (2023-05-29T12:06:53Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [95.94432031144716]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Learning Rotation-Equivariant Features for Visual Correspondence [41.79256655501003]
本稿では,識別的回転不変記述子を抽出する自己教師型学習フレームワークを提案する。
グループ同変CNNを利用することで、回転同変の特徴とその配向を効果的に学習する。
本手法は,既存の回転不変ディスクリプタ間で,回転の異なる状態のマッチング精度を示す。
論文 参考訳(メタデータ) (2023-03-25T13:42:07Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Equivariant Representation Learning via Class-Pose Decomposition [17.032782230538388]
データの対称性に同値な表現を学習するための一般的な方法を提案する。
コンポーネントは、それぞれ固有のデータクラスとポーズに意味的に対応します。
その結果,表現はデータの幾何を捉え,他の同変表現学習フレームワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-07T06:55:52Z) - Learning Equivariant Energy Based Models with Equivariant Stein
Variational Gradient Descent [80.73580820014242]
本稿では,確率モデルに対称性を組み込むことにより,確率密度の効率的なサンプリングと学習の問題に焦点をあてる。
まず、等変シュタイン変分勾配Descentアルゴリズムを導入する。これは、対称性を持つ密度からサンプリングするスタインの同一性に基づく同変サンプリング法である。
我々はエネルギーベースモデルのトレーニングを改善し、スケールアップする新しい方法を提案する。
論文 参考訳(メタデータ) (2021-06-15T01:35:17Z) - Commutative Lie Group VAE for Disentanglement Learning [96.32813624341833]
本研究では,データに表される因子の変動を同変的に反映する基盤構造を見いだすこととして,非絡み合い学習を考察する。
グループベースの非絡み合い学習を実現するために、Communative Lie Group VAEというシンプルなモデルが導入された。
実験により,本モデルでは,教師なしの非絡み合い表現を効果的に学習し,余分な制約を伴わずに最先端のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-06-07T07:03:14Z) - Group Equivariant Conditional Neural Processes [30.134634059773703]
群同変条件ニューラルプロセス(EquivCNP)を提案する。
EquivCNPは1次元回帰タスクにおいて従来の条件付きニューラルプロセスに匹敵する性能を示す。
論文 参考訳(メタデータ) (2021-02-17T13:50:07Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Learning Irreducible Representations of Noncommutative Lie Groups [3.1727619150610837]
最近の研究は、2Dや3D回転のような連続対称性群と等価なニューラルネットワークを構築している。
回転や翻訳を超えた等分散のフロンティア応用によって動機付けられた2つの貢献を示す。
論文 参考訳(メタデータ) (2020-06-01T05:14:29Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。