論文の概要: Geometrically Principled Connections in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2004.02658v1
- Date: Mon, 6 Apr 2020 13:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 05:52:03.924833
- Title: Geometrically Principled Connections in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける幾何原理接続
- Authors: Shunwang Gong, Mehdi Bahri, Michael M. Bronstein, Stefanos Zafeiriou
- Abstract要約: 我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
- 参考スコア(独自算出の注目度): 66.51286736506658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolution operators bring the advantages of deep learning to a
variety of graph and mesh processing tasks previously deemed out of reach. With
their continued success comes the desire to design more powerful architectures,
often by adapting existing deep learning techniques to non-Euclidean data. In
this paper, we argue geometry should remain the primary driving force behind
innovation in the emerging field of geometric deep learning. We relate graph
neural networks to widely successful computer graphics and data approximation
models: radial basis functions (RBFs). We conjecture that, like RBFs, graph
convolution layers would benefit from the addition of simple functions to the
powerful convolution kernels. We introduce affine skip connections, a novel
building block formed by combining a fully connected layer with any graph
convolution operator. We experimentally demonstrate the effectiveness of our
technique and show the improved performance is the consequence of more than the
increased number of parameters. Operators equipped with the affine skip
connection markedly outperform their base performance on every task we
evaluated, i.e., shape reconstruction, dense shape correspondence, and graph
classification. We hope our simple and effective approach will serve as a solid
baseline and help ease future research in graph neural networks.
- Abstract(参考訳): グラフ畳み込み演算子は、これまで手が届かなかったさまざまなグラフおよびメッシュ処理タスクにディープラーニングの利点をもたらす。
彼らの継続的な成功により、しばしば既存のディープラーニング技術を非ユークリッドデータに適用することによって、より強力なアーキテクチャを設計したいという願望がもたらされる。
本稿では,幾何学的深層学習の新たな分野におけるイノベーションの原動力は幾何学であるべきだと論じる。
本稿では,グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデル,放射基底関数(RBF)について述べる。
RBFと同様に、グラフ畳み込み層は、強力な畳み込みカーネルに単純な関数を追加することで恩恵を受けると推測する。
完全連結層と任意のグラフ畳み込み演算子を組み合わせることで形成される新しいビルディングブロックであるアフィンスキップ接続を紹介する。
提案手法の有効性を実験的に実証し,その性能改善がパラメータの増加以上の結果であることを示す。
アフィンスキップ接続を備えたオペレータは、評価したタスク、すなわち形状再構成、密な形状対応、グラフ分類において、基本性能を著しく上回る。
私たちのシンプルで効果的なアプローチが、強固なベースラインとして役立ち、グラフニューラルネットワークの将来的な研究を容易にすることを願っています。
関連論文リスト
- Infinite Width Graph Neural Networks for Node Regression/ Classification [0.0]
この研究は、グラフ構造化データ上の完全連結ディープニューラルネットワークの一般化であるグラフニューラルネットワークを分析する。
論文 参考訳(メタデータ) (2023-10-12T10:01:39Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Pyramidal Reservoir Graph Neural Network [18.632681846787246]
本稿では,2種類の層を置換するディープグラフニューラルネットワーク(GNN)モデルを提案する。
グラフプーリングがモデルの計算複雑性をいかに低減するかを示す。
RCベースGNNの設計に対する提案手法は,精度と複雑性のトレードオフを有利かつ原則的に実現している。
論文 参考訳(メタデータ) (2021-04-10T08:34:09Z) - Analyzing the Performance of Graph Neural Networks with Pipe Parallelism [2.269587850533721]
ノードやエッジの分類やリンクの予測といったタスクで大きな成功を収めたグラフニューラルネットワーク(GNN)に注目した。
グラフ技術の進歩には,大規模ネットワーク処理のための新たなアプローチが必要である。
私たちは、ディープラーニングコミュニティで成功したと知られている既存のツールとフレームワークを使用して、GNNを並列化する方法を研究します。
論文 参考訳(メタデータ) (2020-12-20T04:20:38Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。