論文の概要: Data efficiency in graph networks through equivariance
- arxiv url: http://arxiv.org/abs/2106.13786v1
- Date: Fri, 25 Jun 2021 17:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 13:01:43.216844
- Title: Data efficiency in graph networks through equivariance
- Title(参考訳): 等分散グラフネットワークにおけるデータ効率
- Authors: Francesco Farina, Emma Slade
- Abstract要約: 座標埋め込みにおける任意の変換に同値なグラフネットワークのための新しいアーキテクチャを導入する。
最小限のデータ量で学習することで、提案するアーキテクチャが、合成問題において見つからないデータに完全に一般化できることが示される。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel architecture for graph networks which is equivariant to
any transformation in the coordinate embeddings that preserves the distance
between neighbouring nodes. In particular, it is equivariant to the Euclidean
and conformal orthogonal groups in $n$-dimensions. Thanks to its equivariance
properties, the proposed model is extremely more data efficient with respect to
classical graph architectures and also intrinsically equipped with a better
inductive bias. We show that, learning on a minimal amount of data, the
architecture we propose can perfectly generalise to unseen data in a synthetic
problem, while much more training data are required from a standard model to
reach comparable performance.
- Abstract(参考訳): 本稿では,隣接ノード間の距離を保つ座標埋め込み内の任意の変換に同値なグラフネットワークのための新しいアーキテクチャを提案する。
特に、n$-次元におけるユークリッド群と共形直交群とに同値である。
その同値性のおかげで、提案モデルは古典的なグラフアーキテクチャに関して非常にデータ効率が良く、本質的にはより優れた帰納バイアスを備える。
提案するアーキテクチャは、最小限のデータ量で学習することで、合成問題で見つからないデータに完全に一般化できる一方で、標準モデルからより多くのトレーニングデータが、同等のパフォーマンスに達するのに必要であることを示す。
関連論文リスト
- Heterogeneous Sheaf Neural Networks [17.664754528494132]
不均一グラフは、多くの実世界の応用における関係構造をモデル化するために一般的に用いられる。
グラフの基盤となるトポロジにおける不均一性をモデル化するために,細胞シーブを用いることを提案する。
HetSheafは、ヘテロジニアス層ニューラルネットワークの一般的なフレームワークであり、ヘテロジニアス層予測器のシリーズを紹介する。
論文 参考訳(メタデータ) (2024-09-12T13:38:08Z) - Approximately Equivariant Neural Processes [47.14384085714576]
実世界のデータをモデル化する場合、学習問題は必ずしも同変ではなく、概ね同変であることが多い。
これを達成するための現在のアプローチは、通常任意のアーキテクチャや対称性群に対して最初から適用することはできない。
我々は、既存の同変アーキテクチャを用いてこれを実現するための一般的なアプローチを開発する。
論文 参考訳(メタデータ) (2024-06-19T12:17:14Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Symmetry-driven graph neural networks [1.713291434132985]
ノード座標に影響を及ぼすいくつかの変換に同値なグラフネットワークアーキテクチャを2つ導入する。
我々はこれらの機能を$n$次元の幾何学的オブジェクトからなる合成データセット上で実証する。
論文 参考訳(メタデータ) (2021-05-28T18:54:12Z) - Beyond permutation equivariance in graph networks [1.713291434132985]
我々は,n$-dimensions におけるユークリッド群に同値なグラフネットワークのための新しいアーキテクチャを提案する。
我々のモデルは、グラフネットワークを最も一般的な形で扱うように設計されており、特殊ケースとして特定の変種を含む。
論文 参考訳(メタデータ) (2021-03-25T18:36:09Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Isometric Transformation Invariant and Equivariant Graph Convolutional
Networks [5.249805590164902]
我々は、IsoGCNsと呼ばれるグラフ畳み込みネットワークに基づく変換不変および同変モデルのセットを提案する。
提案モデルは,幾何学的および物理シミュレーションデータに関連するタスクの最先端手法と比較して,競争力のある性能を示す。
論文 参考訳(メタデータ) (2020-05-13T13:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。