論文の概要: FedHGN: A Federated Framework for Heterogeneous Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2305.09729v1
- Date: Tue, 16 May 2023 18:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 18:50:45.569193
- Title: FedHGN: A Federated Framework for Heterogeneous Graph Neural Networks
- Title(参考訳): FedHGN: 異種グラフニューラルネットワークのためのフェデレーションフレームワーク
- Authors: Xinyu Fu, Irwin King
- Abstract要約: 不均一グラフニューラルネットワーク(HGNN)は、従来のGNNよりも、型付きグラフデータやリレーショナルグラフデータからより効果的に学習することができる。
より大きなパラメータ空間では、HGNNはより多くのトレーニングデータを必要とする可能性がある。
我々は,HGNNのための新規かつ汎用的なFGLフレームワークであるFedHGNを提案する。
- 参考スコア(独自算出の注目度): 45.94642721490744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous graph neural networks (HGNNs) can learn from typed and
relational graph data more effectively than conventional GNNs. With larger
parameter spaces, HGNNs may require more training data, which is often scarce
in real-world applications due to privacy regulations (e.g., GDPR). Federated
graph learning (FGL) enables multiple clients to train a GNN collaboratively
without sharing their local data. However, existing FGL methods mainly focus on
homogeneous GNNs or knowledge graph embeddings; few have considered
heterogeneous graphs and HGNNs. In federated heterogeneous graph learning,
clients may have private graph schemas. Conventional FL/FGL methods attempting
to define a global HGNN model would violate schema privacy. To address these
challenges, we propose FedHGN, a novel and general FGL framework for HGNNs.
FedHGN adopts schema-weight decoupling to enable schema-agnostic knowledge
sharing and employs coefficients alignment to stabilize the training process
and improve HGNN performance. With better privacy preservation, FedHGN
consistently outperforms local training and conventional FL methods on three
widely adopted heterogeneous graph datasets with varying client numbers. The
code is available at https://github.com/cynricfu/FedHGN .
- Abstract(参考訳): ヘテロジニアスグラフニューラルネットワーク(hgnn)は、従来のgnnよりも型付きおよびリレーショナルグラフデータからより効果的に学習することができる。
より大きなパラメータ空間では、HGNNはより多くのトレーニングデータを必要とする可能性がある。
フェデレーショングラフ学習(FGL)により、複数のクライアントがローカルデータを共有せずにGNNを協調的にトレーニングできる。
しかし、既存のFGL法は主に均質なGNNや知識グラフの埋め込みに焦点を当てている。
フェデレーション付き異種グラフ学習では、クライアントはプライベートグラフスキーマを持つことができる。
グローバルなHGNNモデルを定義しようとする従来のFL/FGLメソッドは、スキーマのプライバシーを侵害する。
これらの課題に対処するため,HGNNのための新規かつ汎用的なFGLフレームワークであるFedHGNを提案する。
FedHGNは、スキーマに依存しない知識共有を可能にするためにスキーマウェイトデカップリングを採用し、トレーニングプロセスの安定化とHGNNのパフォーマンス向上のために係数アライメントを採用している。
より優れたプライバシー保護により、FedHGNは、様々なクライアント番号を持つ3つの広く採用されている異種グラフデータセット上で、ローカルトレーニングと従来のFLメソッドを一貫して上回る。
コードはhttps://github.com/cynricfu/fedhgnで入手できる。
関連論文リスト
- Graph as a feature: improving node classification with non-neural graph-aware logistic regression [2.952177779219163]
Graph-aware Logistic Regression (GLR) はノード分類タスク用に設計された非神経モデルである。
GNNにアクセスできる情報のごく一部しか使わない従来のグラフアルゴリズムとは異なり、提案モデルではノードの特徴とエンティティ間の関係を同時に活用する。
論文 参考訳(メタデータ) (2024-11-19T08:32:14Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - SplitGNN: Splitting GNN for Node Classification with Heterogeneous
Attention [29.307331758493323]
グラフ計算のための分割学習型グラフニューラルネットワーク(SplitGNN)を提案する。
我々のSplitGNNは、孤立した異種地区を協調的に利用できるようにする。
2つの標準公開データセットと実世界のデータセットのノード分類タスクにおけるSplitGNNの有効性を示す。
論文 参考訳(メタデータ) (2023-01-27T12:08:44Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - FedGraphNN: A Federated Learning System and Benchmark for Graph Neural
Networks [68.64678614325193]
グラフニューラルネットワーク(GNN)の研究は、グラフ構造データから表現を学ぶGNNの能力のおかげで急速に成長しています。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
GNNベースのFL研究を促進するためのオープンリサーチフェデレーション学習システムとベンチマークであるFedGraphNNを紹介します。
論文 参考訳(メタデータ) (2021-04-14T22:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。