論文の概要: Learning Symmetric Embeddings for Equivariant World Models
- arxiv url: http://arxiv.org/abs/2204.11371v1
- Date: Sun, 24 Apr 2022 22:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 23:02:30.739608
- Title: Learning Symmetric Embeddings for Equivariant World Models
- Title(参考訳): 等変世界モデルの学習対称埋め込み
- Authors: Jung Yeon Park, Ondrej Biza, Linfeng Zhao, Jan Willem van de Meent,
Robin Walters
- Abstract要約: 入力空間(例えば画像)を符号化する学習対称埋め込みネットワーク(SEN)を提案する。
このネットワークは、同変のタスクネットワークでエンドツーエンドにトレーニングして、明示的に対称な表現を学ぶことができる。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
- 参考スコア(独自算出の注目度): 9.781637768189158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating symmetries can lead to highly data-efficient and generalizable
models by defining equivalence classes of data samples related by
transformations. However, characterizing how transformations act on input data
is often difficult, limiting the applicability of equivariant models. We
propose learning symmetric embedding networks (SENs) that encode an input space
(e.g. images), where we do not know the effect of transformations (e.g.
rotations), to a feature space that transforms in a known manner under these
operations. This network can be trained end-to-end with an equivariant task
network to learn an explicitly symmetric representation. We validate this
approach in the context of equivariant transition models with 3 distinct forms
of symmetry. Our experiments demonstrate that SENs facilitate the application
of equivariant networks to data with complex symmetry representations.
Moreover, doing so can yield improvements in accuracy and generalization
relative to both fully-equivariant and non-equivariant baselines.
- Abstract(参考訳): 対称性を組み込むことで、変換に関連したデータサンプルの同値クラスを定義することで、高度にデータ効率が高く、一般化できるモデルが得られる。
しかし、入力データに変換がどのように作用するかを特徴付けることはしばしば困難であり、同変モデルの適用性を制限する。
本稿では,入力空間(画像など)を符号化する学習対称埋め込みネットワーク(sens)を提案する。
このネットワークは、同変タスクネットワークでエンドツーエンドにトレーニングして、明示的に対称表現を学ぶことができる。
このアプローチを3つの異なる対称性を持つ同変遷移モデルの文脈で検証する。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
さらに、それによって完全同値ベースラインと非同値ベースラインの両方に対して精度と一般化が向上する。
関連論文リスト
- Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Optimization Dynamics of Equivariant and Augmented Neural Networks [2.7918308693131135]
対称データに基づくニューラルネットワークの最適化について検討する。
アーキテクチャを制約する戦略を、データ拡張を使用する戦略と同等に扱う戦略と比較する。
後者の状況においても, 定常点が拡張トレーニングにおいて不安定であることは明らかだが, 明らかな同変モデルに対しては安定である。
論文 参考訳(メタデータ) (2023-03-23T17:26:12Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - The Surprising Effectiveness of Equivariant Models in Domains with
Latent Symmetry [6.716931832076628]
領域対称性と正確に一致しない対称性制約を課すことは、環境における真の対称性を学ぶのに非常に有用であることを示す。
ロボット操作・制御問題における教師付き学習と強化学習の両方において,同変モデルが潜在対称性を持つ領域における非同変手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-11-16T21:51:55Z) - Equivariant Mesh Attention Networks [10.517110532297021]
上述したすべての変換にほぼ同値なメッシュデータに対する注意に基づくアーキテクチャを提案する。
提案したアーキテクチャは,これらの局所的・言語的変換に対して同変であり,従って堅牢であることを確認した。
論文 参考訳(メタデータ) (2022-05-21T19:53:14Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Deformation Robust Roto-Scale-Translation Equivariant CNNs [10.44236628142169]
グループ同変畳み込みニューラルネットワーク(G-CNN)は,固有対称性を持つ一般化性能を著しく向上させる。
G-CNNの一般的な理論と実践的実装は、回転またはスケーリング変換の下での平面画像に対して研究されている。
論文 参考訳(メタデータ) (2021-11-22T03:58:24Z) - Equivariant Deep Dynamical Model for Motion Prediction [0.0]
深層生成モデリングは、データの最も単純化され圧縮された基礎的な記述を見つけるための動的モデリングの強力なアプローチである。
ほとんどの学習タスクは固有の対称性を持ち、すなわち入力変換は出力をそのままにするか、出力が同様の変換を行う。
本稿では, 入力空間の構造的表現を, 対称性の変換とともに変化するという意味で学習する動き予測のためのSO(3)同変深部力学モデル(EqDDM)を提案する。
論文 参考訳(メタデータ) (2021-11-02T21:01:43Z) - Learning Equivariant Energy Based Models with Equivariant Stein
Variational Gradient Descent [80.73580820014242]
本稿では,確率モデルに対称性を組み込むことにより,確率密度の効率的なサンプリングと学習の問題に焦点をあてる。
まず、等変シュタイン変分勾配Descentアルゴリズムを導入する。これは、対称性を持つ密度からサンプリングするスタインの同一性に基づく同変サンプリング法である。
我々はエネルギーベースモデルのトレーニングを改善し、スケールアップする新しい方法を提案する。
論文 参考訳(メタデータ) (2021-06-15T01:35:17Z) - Meta-Learning Symmetries by Reparameterization [63.85144439337671]
データから対応するパラメータ共有パターンを学習し、等価性をネットワークに学習し、符号化する手法を提案する。
本実験は,画像処理タスクで使用される共通変換に等価性をエンコードして自動的に学習できることを示唆する。
論文 参考訳(メタデータ) (2020-07-06T17:59:54Z) - Inverse Learning of Symmetries [71.62109774068064]
2つの潜在部分空間からなるモデルで対称性変換を学ぶ。
我々のアプローチは、情報ボトルネックと連続的な相互情報正規化器の組み合わせに基づいています。
我々のモデルは, 人工的および分子的データセットにおける最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-02-07T13:48:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。