論文の概要: Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations
- arxiv url: http://arxiv.org/abs/2102.04064v1
- Date: Mon, 8 Feb 2021 08:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 06:26:35.640426
- Title: Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations
- Title(参考訳): 不均一集合によるグラフニューラルネットワークのエンハンス情報伝搬
- Authors: Dawei Leng, Jinjiang Guo, Lurong Pan, Jie Li, Xinyu Wang
- Abstract要約: グラフニューラルネットワークは、ディープラーニングの成功の継続として出現している。
ヘテロジニアスアグリゲーションを組み合わせることで,GNN層間の情報伝達を促進することを提案する。
我々は,多くのグラフ分類ベンチマークにおいて,HAG-Netの有効性を実証的に検証した。
- 参考スコア(独自算出の注目度): 7.3136594018091134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks are emerging as continuation of deep learning success
w.r.t. graph data. Tens of different graph neural network variants have been
proposed, most following a neighborhood aggregation scheme, where the node
features are updated via aggregating features of its neighboring nodes from
layer to layer. Though related research surges, the power of GNNs are still not
on-par-with their counterpart CNNs in computer vision and RNNs in natural
language processing. We rethink this problem from the perspective of
information propagation, and propose to enhance information propagation among
GNN layers by combining heterogeneous aggregations. We argue that as richer
information are propagated from shallow to deep layers, the discriminative
capability of features formulated by GNN can benefit from it. As our first
attempt in this direction, a new generic GNN layer formulation and upon this a
new GNN variant referred as HAG-Net is proposed. We empirically validate the
effectiveness of HAG-Net on a number of graph classification benchmarks, and
elaborate all the design options and criterions along with.
- Abstract(参考訳): ディープラーニングの成功の継続として、グラフニューラルネットワークが出現している。
グラフデータ。
多数の異なるグラフニューラルネットワークが提案されているが、その大部分は近隣のアグリゲーションスキームに従っており、ノード機能はレイヤからレイヤへの隣接ノードの特徴を集約することで更新される。
関連する研究の急増にもかかわらず、GNNの能力はコンピュータビジョンのCNNや自然言語処理のRNNと同等ではない。
この問題を情報伝播の観点から再考し、異種アグリゲーションを組み合わせることでGNN層間の情報伝達を強化することを提案する。
我々は、より豊かな情報が浅い層から深い層へと伝播しているため、GNNによって定式化された特徴の識別能力は、その恩恵を受けることができると論じる。
この方向への最初の試みとして、新しい汎用GNN層を定式化し、HAG-Netと呼ばれる新しいGNN変種を提案する。
いくつかのグラフ分類ベンチマークにおけるHAG-Netの有効性を実証的に検証し、すべての設計オプションと基準を精査する。
関連論文リスト
- Conditional Local Feature Encoding for Graph Neural Networks [14.983942698240293]
グラフニューラルネットワーク(GNN)は,グラフベースのデータから学ぶ上で大きな成功を収めている。
現在のGNNのキーとなるメカニズムはメッセージパッシングであり、ノードの機能は、その近隣から渡される情報に基づいて更新される。
本研究では,局所的特徴符号化(CLFE)を提案する。
論文 参考訳(メタデータ) (2024-05-08T01:51:19Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Two-level Graph Neural Network [15.014364222532347]
2レベルGNN(TL-GNN)と呼ばれる新しいGNNフレームワークを提案する。
これは、サブグラフレベル情報とノードレベル情報とをマージする。
実験により、TL-GNNは既存のGNNよりも優れ、最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2022-01-03T02:15:20Z) - Network In Graph Neural Network [9.951298152023691]
本稿では,任意のGNNモデルに対して,モデルをより深くすることでモデル容量を増大させるモデルに依存しない手法を提案する。
GNNレイヤの追加や拡張の代わりに、NGNNは、各GNNレイヤに非線形フィードフォワードニューラルネットワーク層を挿入することで、GNNモデルを深めている。
論文 参考訳(メタデータ) (2021-11-23T03:58:56Z) - Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks [37.79964911718766]
グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
本稿では,GNNのコア操作に対して,極めて単純かつ無作為な修正を施した中央ノード置換変分関数を提案する。
モデルの具体的な性能向上は、モデルがより少ないパラメータを使用しながら、有意なマージンで過去の最先端結果を上回った場合に観察される。
論文 参考訳(メタデータ) (2021-09-20T05:04:26Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。