論文の概要: Beyond Localized Graph Neural Networks: An Attributed Motif
Regularization Framework
- arxiv url: http://arxiv.org/abs/2009.05197v1
- Date: Fri, 11 Sep 2020 02:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 22:00:14.910296
- Title: Beyond Localized Graph Neural Networks: An Attributed Motif
Regularization Framework
- Title(参考訳): ローカライズされたグラフニューラルネットワークを超えて - 分散モチーフ正規化フレームワーク
- Authors: Aravind Sankar, Junting Wang, Adit Krishnan, Hari Sundaram
- Abstract要約: InfoMotifは、グラフ上の半教師付き、モチーフ正規化、学習フレームワークである。
グラフニューラルネットワーク(GNN)におけるメッセージパッシングの2つの重要な制限を克服する。
6つの多種多様な実世界のデータセットで有意な増加(3-10%の精度)を示した。
- 参考スコア(独自算出の注目度): 6.790281989130923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present InfoMotif, a new semi-supervised, motif-regularized, learning
framework over graphs. We overcome two key limitations of message passing in
popular graph neural networks (GNNs): localization (a k-layer GNN cannot
utilize features outside the k-hop neighborhood of the labeled training nodes)
and over-smoothed (structurally indistinguishable) representations. We propose
the concept of attributed structural roles of nodes based on their occurrence
in different network motifs, independent of network proximity. Two nodes share
attributed structural roles if they participate in topologically similar motif
instances over co-varying sets of attributes. Further, InfoMotif achieves
architecture independence by regularizing the node representations of arbitrary
GNNs via mutual information maximization. Our training curriculum dynamically
prioritizes multiple motifs in the learning process without relying on
distributional assumptions in the underlying graph or the learning task. We
integrate three state-of-the-art GNNs in our framework, to show significant
gains (3-10% accuracy) across six diverse, real-world datasets. We see stronger
gains for nodes with sparse training labels and diverse attributes in local
neighborhood structures.
- Abstract(参考訳): 我々は、グラフ上の新しい半教師付きモチーフ正規化学習フレームワークInfoMotifを提示する。
一般的なグラフニューラルネットワーク(gnns)におけるメッセージパッシングの重要な2つの制限を克服した。ローカライズ(k層gnnはラベル付きトレーニングノードのkホップ近傍では機能利用できない)と過剰スムース(構造的に区別できない)表現である。
本稿では,ネットワーク近接性に依存しない異なるネットワークモチーフにおけるノードの属性構造的役割の概念を提案する。
2つのノードは、トポロジカルに類似したモチーフインスタンスに共変する属性の集合に対して、属性を持つ構造的役割を共有する。
さらに、InfoMotifは、相互情報の最大化によって任意のGNNのノード表現を規則化することで、アーキテクチャの独立性を達成する。
本カリキュラムは,学習過程における複数のモチーフを,基礎となるグラフや学習課題の分布仮定に頼ることなく動的に優先順位付けする。
当社のフレームワークには3つの最先端のGNNが組み込まれており、6つの多種多様な実世界のデータセット間で大きな向上(3-10%の精度)を示している。
局所的な近傍構造に疎いトレーニングラベルと多彩な属性を持つノードに対して,より強力なゲインが期待できる。
関連論文リスト
- Harnessing Collective Structure Knowledge in Data Augmentation for Graph Neural Networks [25.12261412297796]
グラフニューラルネットワーク(GNN)は,グラフ表現学習において最先端のパフォーマンスを達成した。
我々は新しいアプローチ、すなわち集合構造知識強化グラフニューラルネットワーク(CoS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-05-17T08:50:00Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Collaborative Graph Neural Networks for Attributed Network Embedding [63.39495932900291]
グラフニューラルネットワーク(GNN)は、属性付きネットワーク埋め込みにおいて顕著な性能を示している。
本稿では,ネットワーク埋め込みに適したGNNアーキテクチャであるCulaborative graph Neural Networks-CONNを提案する。
論文 参考訳(メタデータ) (2023-07-22T04:52:27Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Convolutional Neural Network Dynamics: A Graph Perspective [39.81881710355496]
本稿では,NNのグラフ構造と性能の関係について検討する。
NNの動的グラフ表現について、完全連結層と畳み込み層の構造表現について検討する。
解析により, NNの性能を正確に予測するために, グラフ統計の簡単な要約を用いることができることがわかった。
論文 参考訳(メタデータ) (2021-11-09T20:38:48Z) - DPGNN: Dual-Perception Graph Neural Network for Representation Learning [21.432960458513826]
グラフニューラルネットワーク(GNN)は近年注目を集め、グラフベースのタスクの多くで顕著なパフォーマンスを実現している。
既存のGNNの多くは、メッセージパッシングパラダイムに基づいて、1つのトポロジ空間内の近隣情報を反復的に集約している。
本稿では,マルチステップメッセージソースの特性,ノード固有のメッセージ出力,マルチスペースメッセージインタラクションに基づく新しいメッセージパッシングパラダイムを提案する。
論文 参考訳(メタデータ) (2021-10-15T05:47:26Z) - Reinforced Neighborhood Selection Guided Multi-Relational Graph Neural
Networks [68.9026534589483]
RioGNNはReinforceed, recursive, flexible neighborhood selection guided multi-relational Graph Neural Network architectureである。
RioGNNは、各関係の個々の重要性の認識により、説明性を高めた差別的なノード埋め込みを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-16T04:30:06Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。