論文の概要: Personalized Subgraph Federated Learning
- arxiv url: http://arxiv.org/abs/2206.10206v1
- Date: Tue, 21 Jun 2022 09:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 18:17:22.645351
- Title: Personalized Subgraph Federated Learning
- Title(参考訳): 個人化サブグラフフェデレーション学習
- Authors: Jinheon Baek, Wonyong Jeong, Jiongdao Jin, Jaehong Yoon, Sung Ju Hwang
- Abstract要約: 実世界のシナリオでは、より大きなグローバルグラフのサブグラフは複数のデバイスや機関に分散する。
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
- 参考スコア(独自算出の注目度): 56.52903162729729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world scenarios, subgraphs of a larger global graph may be
distributed across multiple devices or institutions, and only locally
accessible due to privacy restrictions, although there may be links between
them. Recently proposed subgraph Federated Learning (FL) methods deal with
those missing links across private local subgraphs while distributively
training Graph Neural Networks (GNNs) on them. However, they have overlooked
the inevitable heterogeneity among subgraphs, caused by subgraphs comprising
different parts of a global graph. For example, a subgraph may belong to one of
the communities within the larger global graph. A naive subgraph FL in such a
case will collapse incompatible knowledge from local GNN models trained on
heterogeneous graph distributions. To overcome such a limitation, we introduce
a new subgraph FL problem, personalized subgraph FL, which focuses on the joint
improvement of the interrelated local GNN models rather than learning a single
global GNN model, and propose a novel framework, FEDerated Personalized
sUBgraph learning (FED-PUB), to tackle it. A crucial challenge in personalized
subgraph FL is that the server does not know which subgraph each client has.
FED-PUB thus utilizes functional embeddings of the local GNNs using random
graphs as inputs to compute similarities between them, and use them to perform
weighted averaging for server-side aggregation. Further, it learns a
personalized sparse mask at each client to select and update only the
subgraph-relevant subset of the aggregated parameters. We validate FED-PUB for
its subgraph FL performance on six datasets, considering both non-overlapping
and overlapping subgraphs, on which ours largely outperforms relevant
baselines.
- Abstract(参考訳): 現実世界のシナリオでは、より大きなグローバルグラフのサブグラフは複数のデバイスや機関に分散され、プライバシー制限のためローカルにのみアクセス可能である。
最近提案されたサブグラフフェデレートラーニング(FL)手法は、グラフニューラルネットワーク(GNN)を分散訓練しながら、プライベートなローカルサブグラフにまたがる欠落したリンクを扱う。
しかし、グローバルグラフの異なる部分からなる部分グラフによって生じる部分グラフ間の必然的不均一性を見落としている。
例えば、サブグラフはより大きなグローバルグラフ内のコミュニティの1つに属するかもしれない。
そのような場合の単純部分グラフFLは、不均一グラフ分布で訓練された局所的なGNNモデルから非互換な知識を崩壊させる。
このような制限を克服するために、単一グローバルGNNモデルを学ぶのではなく、関連ローカルGNNモデルの協調改善に焦点を当てたパーソナライズされたサブグラフFL問題を導入し、それに取り組むための新しいフレームワークFEDerated Personalized sUBgraph Learning (FED-PUB)を提案する。
パーソナライズされたサブグラフFLにおける重要な課題は、サーバがそれぞれのクライアントが持っているサブグラフを知らないことである。
したがってFED-PUBは、ランダムグラフを入力としてローカルGNNの機能埋め込みを利用して類似性を計算し、サーバ側アグリゲーションの重み付け平均化を行う。
さらに、各クライアントのパーソナライズされたスパースマスクを学習し、集約されたパラメータのサブグラフ関連サブセットのみを選択して更新する。
我々は,FED-PUBのサブグラフFL性能を6つのデータセットで検証し,オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮した。
関連論文リスト
- Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - SSHPool: The Separated Subgraph-based Hierarchical Pooling [47.78745802682822]
グラフ分類のための新しい局所グラフプーリング法,すなわち分離部分グラフベース階層プール(SSH)を開発した。
局所グラフ畳み込み単位を局所構造として個別に用いて各部分グラフをより粗いノードに圧縮する。
我々は、グラフ分類のためのSSHPoolモジュールに関連するエンドツーエンドのGNNフレームワークを開発する。
論文 参考訳(メタデータ) (2024-03-24T13:03:35Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - MGNet: Learning Correspondences via Multiple Graphs [78.0117352211091]
学習対応は、不均一な対応分布と低い不整合率で設定された初期対応から正しい対応を見つけることを目的としている。
最近の進歩は、通常、グラフニューラルネットワーク(GNN)を使用して単一のタイプのグラフを構築したり、グローバルなグラフに局所グラフをスタックしてタスクを完了させる。
本稿では,複数の補完グラフを効果的に組み合わせるためのMGNetを提案する。
論文 参考訳(メタデータ) (2024-01-10T07:58:44Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Stochastic Subgraph Neighborhood Pooling for Subgraph Classification [2.1270496914042996]
Subgraph Neighborhood Pooling (SSNP) は、ラベル付けトリックのような計算コストの高い操作をすることなく、サブグラフとその周辺情報を共同で集約する。
実験により、我々のモデルは、トレーニングにおいて最大3倍高速でありながら、最先端の手法(マージンが最大2%)より優れています。
論文 参考訳(メタデータ) (2023-04-17T18:49:18Z) - Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection [57.34881616131377]
異なるエッジに対して最適なサブグラフを自動,個人的,帰納的に識別するプラグイン・アンド・プレイ・フレームワークとしてパーソナライズされたサブグラフセレクタ(PS2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPトレーニングに対する新たなアプローチとして,まずエッジの最適な部分グラフを識別し,次にサンプル部分グラフを用いて推論モデルをトレーニングすることを提案する。
論文 参考訳(メタデータ) (2022-12-23T17:30:19Z) - Subgraph Federated Learning with Missing Neighbor Generation [24.179417092273187]
サブグラフフェデレーション学習は、グラフデータを直接共有することなく、強力で一般化可能なグラフマイニングモデルを協調的にトレーニングすることを目的としている。
本稿では,1)FedSageのノード特徴,リンク構造,タスクラベルを統合するためにFedAvgをベースとしたGraphSageモデルをトレーニングするFedSageと,2)FedSageに沿って欠落した隣のジェネレータをトレーニングしてローカルサブグラフ間のリンクの欠落に対処するFedSage+という2つの主要な手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T04:58:55Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。