論文の概要: SplitGNN: Splitting GNN for Node Classification with Heterogeneous
Attention
- arxiv url: http://arxiv.org/abs/2301.12885v1
- Date: Fri, 27 Jan 2023 12:08:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 14:42:43.935985
- Title: SplitGNN: Splitting GNN for Node Classification with Heterogeneous
Attention
- Title(参考訳): SplitGNN: 異種注意によるノード分類のための分割GNN
- Authors: Xiaolong Xu and Lingjuan Lyu and Yihong Dong and Yicheng Lu and
Weiqiang Wang and Hong Jin
- Abstract要約: グラフ計算のための分割学習型グラフニューラルネットワーク(SplitGNN)を提案する。
我々のSplitGNNは、孤立した異種地区を協調的に利用できるようにする。
2つの標準公開データセットと実世界のデータセットのノード分類タスクにおけるSplitGNNの有効性を示す。
- 参考スコア(独自算出の注目度): 29.307331758493323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the frequent happening of privacy leakage and the enactment of privacy
laws across different countries, data owners are reluctant to directly share
their raw data and labels with any other party. In reality, a lot of these raw
data are stored in the graph database, especially for finance. For
collaboratively building graph neural networks(GNNs), federated learning(FL)
may not be an ideal choice for the vertically partitioned setting where privacy
and efficiency are the main concerns. Moreover, almost all the existing
federated GNNs are mainly designed for homogeneous graphs, which simplify
various types of relations as the same type, thus largely limits their
performance. We bridge this gap by proposing a split learning-based
GNN(SplitGNN), where this model is divided into two sub-models: the local GNN
model includes all the private data related computation to generate local node
embeddings, whereas the global model calculates global embeddings by
aggregating all the participants' local embeddings. Our SplitGNN allows the
isolated heterogeneous neighborhood to be collaboratively utilized. To better
capture representations, we propose a novel Heterogeneous Attention(HAT)
algorithm and use both node-based and path-based attention mechanisms to learn
various types of nodes and edges with multi-hop relation features. We
demonstrate the effectiveness of our SplitGNN on node classification tasks for
two standard public datasets and the real-world dataset. Extensive experimental
results validate that our proposed SplitGNN significantly outperforms the
state-of-the-art(SOTA) methods.
- Abstract(参考訳): プライバシー漏洩が頻発し、さまざまな国でプライバシー法が施行される中、データ所有者は、生のデータとラベルを直接他の誰とも共有することを拒否している。
実際には、これらの生データの多くは、特に金融のために、グラフデータベースに格納されています。
グラフニューラルネットワーク(gnns)を共同構築する場合、プライバシと効率性が主な関心事である垂直分割設定では、フェデレーション学習(fl)が理想的ではない可能性がある。
さらに、既存のほとんどの連合GNNは、主に同種グラフのために設計されており、様々な種類の関係を単純化し、その結果、その性能が大幅に制限される。
ローカルgnnモデルは、ローカルノード埋め込みを生成するために、すべてのプライベートデータに関連する計算を含むが、グローバルモデルは、すべての参加者のローカル埋め込みを集約することで、グローバル埋め込みを計算する。
我々のSplitGNNは、孤立した異種地区を協調的に利用できるようにする。
表現をよりよく捉えるために,ノードベースとパスベースのアテンション機構を併用して,マルチホップ関係の特徴を持つノードやエッジのさまざまなタイプを学習する,新しいヘテロジニアスアテンション(HAT)アルゴリズムを提案する。
2つの標準公開データセットと実世界のデータセットのノード分類タスクにおけるSplitGNNの有効性を示す。
実験の結果,提案したSplitGNNは最先端のSOTA法よりも優れていた。
関連論文リスト
- FedHGN: A Federated Framework for Heterogeneous Graph Neural Networks [45.94642721490744]
不均一グラフニューラルネットワーク(HGNN)は、従来のGNNよりも、型付きグラフデータやリレーショナルグラフデータからより効果的に学習することができる。
より大きなパラメータ空間では、HGNNはより多くのトレーニングデータを必要とする可能性がある。
我々は,HGNNのための新規かつ汎用的なFGLフレームワークであるFedHGNを提案する。
論文 参考訳(メタデータ) (2023-05-16T18:01:49Z) - LSGNN: Towards General Graph Neural Network in Node Classification by
Local Similarity [59.41119013018377]
本稿では,ローカル類似性(LocalSim)を用いて,プラグイン・アンド・プレイモジュールとしても機能するノードレベルの重み付き融合を学習する。
そこで本研究では,より情報性の高いマルチホップ情報を抽出するための,新規かつ効率的な初期残留差分接続(IRDC)を提案する。
提案手法,すなわちローカル類似グラフニューラルネットワーク(LSGNN)は,ホモ親和性グラフとヘテロ親和性グラフの両方において,同等あるいは優れた最先端性能を提供できる。
論文 参考訳(メタデータ) (2023-05-07T09:06:11Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - ASFGNN: Automated Separated-Federated Graph Neural Network [17.817867271722093]
本稿では,ASFGNN学習パラダイムを提案する。
我々は,ベンチマークデータセットの実験を行い,ASFGNNが有望なフェデレーションGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-06T09:21:34Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Vertically Federated Graph Neural Network for Privacy-Preserving Node
Classification [39.53937689989282]
VFGNNは、垂直分割されたデータの下でのプライバシー保護ノード分類タスクの学習パラダイムである。
プライベートなデータ関連の計算をデータホルダに残し、残りの計算を半正直なサーバに委譲します。
3つのベンチマークで実験を行い,VFGNNの有効性を実証した。
論文 参考訳(メタデータ) (2020-05-25T03:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。