論文の概要: Search to Capture Long-range Dependency with Stacking GNNs for Graph
Classification
- arxiv url: http://arxiv.org/abs/2302.08671v1
- Date: Fri, 17 Feb 2023 03:40:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:57:08.799225
- Title: Search to Capture Long-range Dependency with Stacking GNNs for Graph
Classification
- Title(参考訳): グラフ分類のためのスタックングGNNによる長距離依存性の抽出
- Authors: Lanning Wei, Zhiqiang He, Huan Zhao, Quanming Yao
- Abstract要約: 浅いGNNは、より深いGNNに直面しているよく知られたオーバースムースな問題のため、より一般的である。
LRGNN(Long-Range Graph Neural Networks)と呼ばれるニューラルアーキテクチャサーチ(NAS)による新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 41.84399177525008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Graph Neural Networks (GNNs) have been popular in the graph
classification task. Currently, shallow GNNs are more common due to the
well-known over-smoothing problem facing deeper GNNs. However, they are
sub-optimal without utilizing the information from distant nodes, i.e., the
long-range dependencies. The mainstream methods in the graph classification
task can extract the long-range dependencies either by designing the pooling
operations or incorporating the higher-order neighbors, while they have evident
drawbacks by modifying the original graph structure, which may result in
information loss in graph structure learning. In this paper, by justifying the
smaller influence of the over-smoothing problem in the graph classification
task, we evoke the importance of stacking-based GNNs and then employ them to
capture the long-range dependencies without modifying the original graph
structure. To achieve this, two design needs are given for stacking-based GNNs,
i.e., sufficient model depth and adaptive skip-connection schemes. By
transforming the two design needs into designing data-specific inter-layer
connections, we propose a novel approach with the help of neural architecture
search (NAS), which is dubbed LRGNN (Long-Range Graph Neural Networks).
Extensive experiments on five datasets show that the proposed LRGNN can achieve
the best performance, and obtained data-specific GNNs with different depth and
skip-connection schemes, which can better capture the long-range dependencies.
- Abstract(参考訳): 近年,グラフ分類タスクにおいてグラフニューラルネットワーク(GNN)が普及している。
現在、浅いGNNはより深いGNNに直面しているよく知られたオーバースムースな問題のため、より一般的である。
しかし、それらは遠方のノード、すなわち長距離依存からの情報を利用せずに準最適である。
グラフ分類タスクの主流の手法は、プール操作を設計したり、上位の隣人を組み込んだりすることで、長距離依存を抽出することができるが、元のグラフ構造を変更することで明らかな欠点があり、グラフ構造学習における情報損失をもたらす可能性がある。
本稿では,グラフ分類タスクにおける過剰スムーシング問題の影響を小さくすることで,スタック型gnnの重要性を生じさせ,元のグラフ構造を変更せずに長距離依存関係をキャプチャする手法を提案する。
これを実現するために、スタック方式のGNN、すなわち十分なモデル深さと適応的なスキップ接続方式に2つの設計ニーズが与えられる。
2つの設計ニーズをデータ固有の層間接続の設計に変換することにより,LRGNN(Long-Range Graph Neural Networks)と呼ばれるニューラルアーキテクチャサーチ(NAS)による新しいアプローチを提案する。
5つのデータセットに対する大規模な実験により、提案したLRGNNは最高の性能を達成でき、異なる深さとスキップ接続方式でデータ固有のGNNを得た。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Multi-View Subgraph Neural Networks: Self-Supervised Learning with Scarce Labeled Data [24.628203785306233]
長距離依存関係を扱うためのマルチビューサブグラフニューラルネットワーク(Muse)と呼ばれる新しい学習フレームワークを提案する。
部分グラフの2つのビューを融合させることで、学習された表現はグラフの位相的性質を広く保存することができる。
実験の結果,Museは限定ラベル付きデータを用いたノード分類タスクにおいて,代替手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-19T01:36:50Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Representing Long-Range Context for Graph Neural Networks with Global
Attention [37.212747564546156]
本稿では,トランスフォーマーに基づく自己認識を用いて,長距離ペア関係の学習を提案する。
提案手法はGraphTransと呼ばれ,標準のGNNモジュールに代えて置換不変なTransformerモジュールを適用している。
その結果,グラフ構造を持たない純粋学習に基づくアプローチは,グラフ上の高レベルな長距離関係を学習するのに適している可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-21T18:16:21Z) - Hierarchical graph neural nets can capture long-range interactions [8.067880298298185]
与えられたグラフの多重解像度表現を利用する階層的メッセージパッシングモデルについて検討する。
これにより、ローカル情報を失うことなく、大きな受容領域にまたがる特徴の学習が容易になる。
階層グラフネット(HGNet)を導入し、任意の2つの接続ノードに対して、最大対数長のメッセージパスパスが存在することを保証します。
論文 参考訳(メタデータ) (2021-07-15T16:24:22Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。