論文の概要: Tuning the Geometry of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2207.05887v1
- Date: Tue, 12 Jul 2022 23:28:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 04:19:53.882425
- Title: Tuning the Geometry of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの幾何学のチューニング
- Authors: Sowon Jeong, Claire Donnat
- Abstract要約: 空間グラフ畳み込み演算子はグラフニューラルネットワーク(GNN)の成功の鍵として認識されている
このアグリゲーション作用素は実際にチューナブルであり、作用素の特定の選択 -- 従って、ジオメトリを埋め込む -- がより適切であるような明示的なレギュレーションであることが示される。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By recursively summing node features over entire neighborhoods, spatial graph
convolution operators have been heralded as key to the success of Graph Neural
Networks (GNNs). Yet, despite the multiplication of GNN methods across tasks
and applications, the impact of this aggregation operation on their performance
still has yet to be extensively analysed. In fact, while efforts have mostly
focused on optimizing the architecture of the neural network, fewer works have
attempted to characterize (a) the different classes of spatial convolution
operators, (b) how the choice of a particular class relates to properties of
the data , and (c) its impact on the geometry of the embedding space. In this
paper, we propose to answer all three questions by dividing existing operators
into two main classes ( symmetrized vs. row-normalized spatial convolutions),
and show how these translate into different implicit biases on the nature of
the data. Finally, we show that this aggregation operator is in fact tunable,
and explicit regimes in which certain choices of operators -- and therefore,
embedding geometries -- might be more appropriate.
- Abstract(参考訳): 近傍全体にわたって再帰的にノードの特徴を要約することで、空間グラフ畳み込み演算子はグラフニューラルネットワーク(gnn)の成功の鍵とされてきた。
しかし、タスクやアプリケーションにまたがるGNNメソッドの乗算にもかかわらず、このアグリゲーション操作がパフォーマンスに与える影響は、まだ広く分析されていない。
実際、ニューラルネットワークのアーキテクチャを最適化することに集中してきたが、特徴付けしようとする研究は少ない。
(a)空間畳み込み作用素の異なるクラス
b) 特定のクラスの選択がデータのプロパティとどのように関連しているか、そして
(c)埋め込み空間の幾何学への影響。
本稿では,既存の演算子を2つの主クラス(対称性と列正規化空間畳み込み)に分けて3つの質問すべてに答えることを提案し,データの性質に関する異なる暗黙のバイアスにどのように変換するかを示す。
最後に、このアグリゲーション演算子は実際にチューニング可能であり、オペレーターの特定の選択(つまり、埋め込みジオメトリ)がより適切かもしれない明示的なレジームであることを示す。
関連論文リスト
- Understanding the Effect of GCN Convolutions in Regression Tasks [8.299692647308323]
グラフ畳み込みネットワーク(GCN)は、グラフ上の関数をモデル化する機械学習において重要な手法となっている。
本稿では、同好ネットワーク上の回帰タスクにおける畳み込み演算子の影響を公式解析する。
論文 参考訳(メタデータ) (2024-10-26T04:19:52Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - pathGCN: Learning General Graph Spatial Operators from Paths [9.539495585692007]
グラフ上のランダムパスから空間演算子を学習するための新しい手法であるpathGCNを提案する。
多数のデータセットに対する実験から,空間的および点的畳み込みを適切に学習することにより,過度なスムーシングのような現象は本質的に避けられることが示唆された。
論文 参考訳(メタデータ) (2022-07-15T11:28:11Z) - Graph Ordering Attention Networks [22.468776559433614]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに関わる多くの問題でうまく使われている。
近隣ノード間のインタラクションをキャプチャする新しいGNNコンポーネントであるグラフ順序付け注意層(GOAT)を導入する。
GOATレイヤは、複雑な情報をキャプチャするグラフメトリクスのモデリングにおけるパフォーマンスの向上を示す。
論文 参考訳(メタデータ) (2022-04-11T18:13:19Z) - Learning Connectivity with Graph Convolutional Networks for
Skeleton-based Action Recognition [14.924672048447338]
グラフのトポロジ特性を学習するグラフ畳み込みネットワークのための新しいフレームワークを提案する。
本手法の設計原理は制約対象関数の最適化に基づいている。
骨格に基づく行動認識の課題に対して行った実験は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2021-12-06T19:43:26Z) - Action Recognition with Kernel-based Graph Convolutional Networks [14.924672048447338]
learning graph convolutional networks(gcns)は、ディープラーニングを任意の非正規ドメインに一般化することを目的としている。
再生カーネルヒルベルト空間(RKHS)における空間グラフ畳み込みを実現する新しいGCNフレームワークを提案する。
gcnモデルの特長は、学習グラフフィルタの受容野のノードと入力グラフのノードを明示的に認識せずに畳み込みを実現する能力にも関係しています。
論文 参考訳(メタデータ) (2020-12-28T11:02:51Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature
Interactions [153.6357310444093]
Graph Convolutional Network(GCN)は,グラフデータの学習と推論を行う新興技術である。
我々は、GCNの既存の設計がクロスフィーチャをモデリングし、クロスフィーチャが重要であるタスクやデータに対してGCNの効率を損なうことを論じている。
我々は、任意の次交叉特徴を、特徴次元と順序サイズに線形に複雑にモデル化した、クロスフィーチャーグラフ畳み込みという新しい演算子を設計する。
論文 参考訳(メタデータ) (2020-03-05T13:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。