論文の概要: Symmetry-driven graph neural networks
- arxiv url: http://arxiv.org/abs/2105.14058v1
- Date: Fri, 28 May 2021 18:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 03:07:42.150598
- Title: Symmetry-driven graph neural networks
- Title(参考訳): 対称性駆動グラフニューラルネットワーク
- Authors: Francesco Farina, Emma Slade
- Abstract要約: ノード座標に影響を及ぼすいくつかの変換に同値なグラフネットワークアーキテクチャを2つ導入する。
我々はこれらの機能を$n$次元の幾何学的オブジェクトからなる合成データセット上で実証する。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exploiting symmetries and invariance in data is a powerful, yet not fully
exploited, way to achieve better generalisation with more efficiency. In this
paper, we introduce two graph network architectures that are equivariant to
several types of transformations affecting the node coordinates. First, we
build equivariance to any transformation in the coordinate embeddings that
preserves the distance between neighbouring nodes, allowing for equivariance to
the Euclidean group. Then, we introduce angle attributes to build equivariance
to any angle preserving transformation - thus, to the conformal group. Thanks
to their equivariance properties, the proposed models can be vastly more data
efficient with respect to classical graph architectures, intrinsically equipped
with a better inductive bias and better at generalising. We demonstrate these
capabilities on a synthetic dataset composed of $n$-dimensional geometric
objects. Additionally, we provide examples of their limitations when (the
right) symmetries are not present in the data.
- Abstract(参考訳): データの爆発的対称性と不変性は、より効率的でより良い一般化を実現するための、強力だが完全には利用されていない方法である。
本稿では,ノード座標に影響を及ぼす数種類の変換に等価な2つのグラフネットワークアーキテクチャを提案する。
まず、近傍ノード間の距離を保つ座標埋め込みの任意の変換に同分散を構築し、ユークリッド群への同分散を可能にする。
次に、任意の角度保存変換(つまり共形群)に対する同値性を構築するために角度属性を導入する。
それらの同値性のおかげで、提案モデルは古典的なグラフアーキテクチャに対してはるかに効率的なデータとなり、本質的にはより優れた帰納バイアスと一般化の精度を備える。
n$-d の幾何学的対象からなる合成データセットでこれらの能力を示す。
さらに、(正しい)対称性がデータに存在しない場合の制限の例を示す。
関連論文リスト
- Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Equivariant Mesh Attention Networks [10.517110532297021]
上述したすべての変換にほぼ同値なメッシュデータに対する注意に基づくアーキテクチャを提案する。
提案したアーキテクチャは,これらの局所的・言語的変換に対して同変であり,従って堅牢であることを確認した。
論文 参考訳(メタデータ) (2022-05-21T19:53:14Z) - Learning Symmetric Embeddings for Equivariant World Models [9.781637768189158]
入力空間(例えば画像)を符号化する学習対称埋め込みネットワーク(SEN)を提案する。
このネットワークは、同変のタスクネットワークでエンドツーエンドにトレーニングして、明示的に対称な表現を学ぶことができる。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
論文 参考訳(メタデータ) (2022-04-24T22:31:52Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Data efficiency in graph networks through equivariance [1.713291434132985]
座標埋め込みにおける任意の変換に同値なグラフネットワークのための新しいアーキテクチャを導入する。
最小限のデータ量で学習することで、提案するアーキテクチャが、合成問題において見つからないデータに完全に一般化できることが示される。
論文 参考訳(メタデータ) (2021-06-25T17:42:34Z) - Beyond permutation equivariance in graph networks [1.713291434132985]
我々は,n$-dimensions におけるユークリッド群に同値なグラフネットワークのための新しいアーキテクチャを提案する。
我々のモデルは、グラフネットワークを最も一般的な形で扱うように設計されており、特殊ケースとして特定の変種を含む。
論文 参考訳(メタデータ) (2021-03-25T18:36:09Z) - Meta-Learning Symmetries by Reparameterization [63.85144439337671]
データから対応するパラメータ共有パターンを学習し、等価性をネットワークに学習し、符号化する手法を提案する。
本実験は,画像処理タスクで使用される共通変換に等価性をエンコードして自動的に学習できることを示唆する。
論文 参考訳(メタデータ) (2020-07-06T17:59:54Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。