論文の概要: A Dual-Perception Graph Neural Network with Multi-hop Graph Generator
- arxiv url: http://arxiv.org/abs/2110.07869v1
- Date: Fri, 15 Oct 2021 05:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 14:18:40.727401
- Title: A Dual-Perception Graph Neural Network with Multi-hop Graph Generator
- Title(参考訳): マルチホップグラフ生成器を用いたデュアルパーセプショングラフニューラルネットワーク
- Authors: Li Zhou, Wenyu Chen, Dingyi Zeng, Shaohuan Cheng, Wanlong Liu, Hong Qu
- Abstract要約: 本稿では,これらの問題に対処する新しいDual-Perception Graph Neural Network (DPGNN)を提案する。
DPGNNでは,ノード特徴を利用して特徴グラフを構築し,元のトポロジグラフと構築した特徴グラフを同時に学習する。
提案した DPGNN は,すべてのデータセットの競合性能を達成し,その内4つが最新の最先端モデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 5.614432807512127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have drawn increasing attention in recent years
and achieved remarkable performance in many graph-based tasks, especially in
semi-supervised learning on graphs. However, most existing GNNs excessively
rely on topological structures and aggregate multi-hop neighborhood information
by simply stacking network layers, which may introduce superfluous noise
information, limit the expressive power of GNNs and lead to the over-smoothing
problem ultimately. In light of this, we propose a novel Dual-Perception Graph
Neural Network (DPGNN) to address these issues. In DPGNN, we utilize node
features to construct a feature graph, and perform node representations
learning based on the original topology graph and the constructed feature graph
simultaneously, which conduce to capture the structural neighborhood
information and the feature-related information. Furthermore, we design a
Multi-Hop Graph Generator (MHGG), which applies a node-to-hop attention
mechanism to aggregate node-specific multi-hop neighborhood information
adaptively. Finally, we apply self-ensembling to form a consistent prediction
for unlabeled node representations. Experimental results on five datasets with
different topological structures demonstrate that our proposed DPGNN achieves
competitive performance across all datasets, four of which the results
outperform the latest state-of-the-art models. The source code of our model is
available at https://github.com.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は近年注目を集め、グラフベースのタスクの多く、特にグラフ上の半教師付き学習において顕著なパフォーマンスを達成した。
しかし、既存のほとんどのGNNは、過剰なノイズ情報を導入し、GNNの表現力を制限し、最終的に過度に平滑な問題を引き起こすネットワーク層を積み重ねることによって、トポロジカルな構造とマルチホップ近傍情報に過度に依存している。
そこで本研究では,これらの問題に対処する新しいDual-Perception Graph Neural Network (DPGNN)を提案する。
DPGNNでは,ノード特徴を利用して特徴グラフを構築し,元のトポロジグラフと構築された特徴グラフを同時に学習し,構造近傍情報と特徴関連情報を抽出する。
さらに,ノード固有のマルチホップ近傍情報を適応的に集約するためにノード間アテンション機構を適用したマルチホップグラフ生成器(MHGG)を設計する。
最後に,ラベルのないノード表現に対する一貫した予測を形成するために,自己センシングを適用する。
異なる位相構造を持つ5つのデータセットにおける実験結果から,提案するdpgnnは全データセットの競合性能を達成し,そのうち4つが最新の最先端モデルに匹敵することを示した。
私たちのモデルのソースコードはhttps://github.com.com.comで閲覧できます。
関連論文リスト
- Harnessing Collective Structure Knowledge in Data Augmentation for Graph Neural Networks [25.12261412297796]
グラフニューラルネットワーク(GNN)は,グラフ表現学習において最先端のパフォーマンスを達成した。
我々は新しいアプローチ、すなわち集合構造知識強化グラフニューラルネットワーク(CoS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-05-17T08:50:00Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - GGNNs : Generalizing GNNs using Residual Connections and Weighted
Message Passing [0.0]
GNNはグラフ内の関係やパターンを捕捉し、効果的な学習と予測タスクを可能にする。
GNNの一般化力は、層間のメッセージパッシング機構に起因すると一般的に信じられている。
提案手法は,各ノードにアキュミュレートする前にメッセージを重み付けし,Residual接続を追加することによって,メッセージパッシング機構をさらに改良する。
論文 参考訳(メタデータ) (2023-11-26T22:22:38Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Hierarchical graph neural nets can capture long-range interactions [8.067880298298185]
与えられたグラフの多重解像度表現を利用する階層的メッセージパッシングモデルについて検討する。
これにより、ローカル情報を失うことなく、大きな受容領域にまたがる特徴の学習が容易になる。
階層グラフネット(HGNet)を導入し、任意の2つの接続ノードに対して、最大対数長のメッセージパスパスが存在することを保証します。
論文 参考訳(メタデータ) (2021-07-15T16:24:22Z) - GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs [18.23435958000212]
グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
既存のGNNモデルの多くは、隣接するノード情報を集約するために単一のタイプのアグリゲータを利用している。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意と相互作用ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2020-11-03T00:20:24Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。