論文の概要: Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization
- arxiv url: http://arxiv.org/abs/2403.03599v1
- Date: Wed, 6 Mar 2024 10:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 15:24:59.392576
- Title: Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization
- Title(参考訳): クラスタ一般化によるグラフニューラルネットワークの学習不変表現
- Authors: Donglin Xia, Xiao Wang, Nian Liu, Chuan Shi
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
- 参考スコア(独自算出の注目度): 58.68231635082891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have become increasingly popular in modeling
graph-structured data due to their ability to learn node representations by
aggregating local structure information. However, it is widely acknowledged
that the test graph structure may differ from the training graph structure,
resulting in a structure shift. In this paper, we experimentally find that the
performance of GNNs drops significantly when the structure shift happens,
suggesting that the learned models may be biased towards specific structure
patterns. To address this challenge, we propose the Cluster Information
Transfer (CIT) mechanism (Code available at
https://github.com/BUPT-GAMMA/CITGNN), which can learn invariant
representations for GNNs, thereby improving their generalization ability to
various and unknown test graphs with structure shift. The CIT mechanism
achieves this by combining different cluster information with the nodes while
preserving their cluster-independent information. By generating nodes across
different clusters, the mechanism significantly enhances the diversity of the
nodes and helps GNNs learn the invariant representations. We provide a
theoretical analysis of the CIT mechanism, showing that the impact of changing
clusters during structure shift can be mitigated after transfer. Additionally,
the proposed mechanism is a plug-in that can be easily used to improve existing
GNNs. We comprehensively evaluate our proposed method on three typical
structure shift scenarios, demonstrating its effectiveness in enhancing GNNs'
performance.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は,局所的な構造情報を集約することでノード表現を学習する能力から,グラフ構造データのモデル化に人気が高まっている。
しかし、テストグラフ構造がトレーニンググラフ構造と異なる場合があり、結果として構造シフトが生じることが広く認識されている。
本稿では,構造シフトが発生するとgnnの性能が著しく低下し,学習したモデルが特定の構造パターンに偏っている可能性が示唆された。
この課題に対処するために、GNNの不変表現を学習できるCluster Information Transfer(CIT)機構(https://github.com/BUPT-GAMMA/CITGNNで利用可能なコード)を提案する。
cit機構は、クラスタに依存しない情報を保存しながら、異なるクラスタ情報をノードと組み合わせてこれを実現する。
異なるクラスタにまたがるノードを生成することで、このメカニズムはノードの多様性を大幅に向上し、GNNが不変表現を学ぶのに役立つ。
我々は,CIT機構の理論解析を行い,移動後の構造変化に伴うクラスターの変化の影響を緩和できることを示した。
さらに、提案するメカニズムは、既存のGNNを改善するために簡単に使用できるプラグインである。
提案手法を3つの典型的な構造シフトシナリオで包括的に評価し,gnnの性能向上効果を実証した。
関連論文リスト
- AdaRC: Mitigating Graph Structure Shifts during Test-Time [66.40525136929398]
テスト時間適応(TTA)は、ソースドメインに再アクセスすることなく、トレーニング済みのモデルをターゲットドメインに適応できる能力によって注目を集めている。
AdaRCは,グラフの構造シフトに効果的かつ効率的な適応を意図した,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T15:15:40Z) - Synergistic Deep Graph Clustering Network [14.569867830074292]
我々はSynC(Syngistic Deep Graph Clustering Network)というグラフクラスタリングフレームワークを提案する。
本稿では,構造拡張を導くための高品質な埋め込みを実現するために,TIGAE (Transform Input Graph Auto-Encoder) を設計する。
特に、表現学習と構造増強は重みを共有し、モデルパラメータの数を著しく減少させる。
論文 参考訳(メタデータ) (2024-06-22T09:40:34Z) - Harnessing Collective Structure Knowledge in Data Augmentation for Graph Neural Networks [25.12261412297796]
グラフニューラルネットワーク(GNN)は,グラフ表現学習において最先端のパフォーマンスを達成した。
我々は新しいアプローチ、すなわち集合構造知識強化グラフニューラルネットワーク(CoS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-05-17T08:50:00Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - AM-GCN: Adaptive Multi-channel Graph Convolutional Networks [85.0332394224503]
グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
論文 参考訳(メタデータ) (2020-07-05T08:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。