論文の概要: Anti-Symmetric DGN: a stable architecture for Deep Graph Networks
- arxiv url: http://arxiv.org/abs/2210.09789v1
- Date: Tue, 18 Oct 2022 12:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:35:14.655436
- Title: Anti-Symmetric DGN: a stable architecture for Deep Graph Networks
- Title(参考訳): アンチサイメトリDGN:ディープグラフネットワークのための安定アーキテクチャ
- Authors: Alessio Gravina, Davide Bacciu, Claudio Gallicchio
- Abstract要約: 安定かつ非散逸的なDGN設計のためのフレームワークであるアンチサイメトリディープグラフネットワーク(A-DGN)を提案する。
A-DGNは性能向上に寄与し、数十のレイヤが使用されている場合でも効果的に学習できる。
- 参考スコア(独自算出の注目度): 12.71306369339218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Graph Networks (DGNs) currently dominate the research landscape of
learning from graphs, due to their efficiency and ability to implement an
adaptive message-passing scheme between the nodes. However, DGNs are typically
limited in their ability to propagate and preserve long-term dependencies
between nodes, \ie they suffer from the over-squashing phenomena. This reduces
their effectiveness, since predictive problems may require to capture
interactions at different, and possibly large, radii in order to be effectively
solved. In this work, we present Anti-Symmetric Deep Graph Networks (A-DGNs), a
framework for stable and non-dissipative DGN design, conceived through the lens
of ordinary differential equations. We give theoretical proof that our method
is stable and non-dissipative, leading to two key results: long-range
information between nodes is preserved, and no gradient vanishing or explosion
occurs in training. We empirically validate the proposed approach on several
graph benchmarks, showing that A-DGN yields to improved performance and enables
to learn effectively even when dozens of layers are used.
- Abstract(参考訳): ディープグラフネットワーク(dgns)は現在、ノード間の適応型メッセージパッシングスキームの実装効率と能力により、グラフから学習する研究の現場を支配している。
しかしながら、DGNは通常、ノード間の長期的な依存関係を伝播し保存する能力に制限されている。
予測問題は、効果的に解決するために異なる、おそらく大きなradiiの相互作用をキャプチャする必要があるため、その効果は低下する。
本研究では, 常微分方程式のレンズを用いて, 安定かつ非散逸的なDGN設計のためのフレームワークであるアンチサイメトリディープグラフネットワーク(A-DGN)を提案する。
我々は,本手法が安定かつ非散逸性であることを理論的に証明し,ノード間の長距離情報を保存し,訓練中に勾配の消失や爆発は起こらないという2つの重要な結果を得た。
提案手法をいくつかのグラフベンチマークで実証的に検証し、A-DGNが性能向上に寄与し、数十のレイヤが使用されている場合でも効果的に学習できることを示した。
関連論文リスト
- Robust Node Representation Learning via Graph Variational Diffusion
Networks [7.335425547621226]
近年,グラフ構造における摂動により,GNNに基づくノード表現学習が著しく劣化する可能性が示唆されている。
摂動の存在下で頑健なノード表現を学習するために、GNNを保護するための様々な研究が提案されている。
本稿では,ガウス雑音を効果的に制御し,摂動グラフ上のロバスト性を保護する新しいノードエンコーダであるグラフ変分拡散ネットワーク(GVDN)を提案する。
論文 参考訳(メタデータ) (2023-12-18T03:18:53Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Understanding Oversquashing in GNNs through the Lens of Effective
Resistance [9.640594614636047]
本研究では,入力グラフに付加されるエッジを同定し,全体の有効抵抗を最小限に抑えるアルゴリズムを開発し,オーバーカッシングを緩和する。
我々は,GNNの性能向上のための総合的有効抵抗に基づくスイッチング戦略の有効性を示す実証的証拠を提供する。
論文 参考訳(メタデータ) (2023-02-14T05:16:12Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。