論文の概要: Personalized Subgraph Federated Learning
- arxiv url: http://arxiv.org/abs/2206.10206v3
- Date: Mon, 22 May 2023 17:46:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 06:04:00.851923
- Title: Personalized Subgraph Federated Learning
- Title(参考訳): 個人化サブグラフフェデレーション学習
- Authors: Jinheon Baek, Wonyong Jeong, Jiongdao Jin, Jaehong Yoon, Sung Ju Hwang
- Abstract要約: 本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
- 参考スコア(独自算出の注目度): 56.52903162729729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subgraphs of a larger global graph may be distributed across multiple
devices, and only locally accessible due to privacy restrictions, although
there may be links between subgraphs. Recently proposed subgraph Federated
Learning (FL) methods deal with those missing links across local subgraphs
while distributively training Graph Neural Networks (GNNs) on them. However,
they have overlooked the inevitable heterogeneity between subgraphs comprising
different communities of a global graph, consequently collapsing the
incompatible knowledge from local GNN models. To this end, we introduce a new
subgraph FL problem, personalized subgraph FL, which focuses on the joint
improvement of the interrelated local GNNs rather than learning a single global
model, and propose a novel framework, FEDerated Personalized sUBgraph learning
(FED-PUB), to tackle it. Since the server cannot access the subgraph in each
client, FED-PUB utilizes functional embeddings of the local GNNs using random
graphs as inputs to compute similarities between them, and use the similarities
to perform weighted averaging for server-side aggregation. Further, it learns a
personalized sparse mask at each client to select and update only the
subgraph-relevant subset of the aggregated parameters. We validate our FED-PUB
for its subgraph FL performance on six datasets, considering both
non-overlapping and overlapping subgraphs, on which it significantly
outperforms relevant baselines. Our code is available at
https://github.com/JinheonBaek/FED-PUB.
- Abstract(参考訳): より大きなグローバルグラフのサブグラフは複数のデバイスに分散し、プライバシー制限のためのみローカルにアクセスできるが、サブグラフの間にはリンクがある可能性がある。
最近提案された subgraph federated learning (fl) 法は,ローカルサブグラフ間のリンクの欠如を処理し,グラフニューラルネットワーク (gnns) を分散的にトレーニングする。
しかし、グローバルグラフの異なるコミュニティを構成する部分グラフ間の不均一性を見落とし、その結果、局所的なGNNモデルから非互換な知識が崩壊する。
そこで本研究では,単一グローバルモデル学習ではなく,関連地域GNNの協調的改善に焦点を当てたパーソナライズされたサブグラフFL問題を新たに導入し,FED-PUB(Federated Personalized sUBgraph Learning)という新たなフレームワークを提案する。
サーバは各クライアントのサブグラフにアクセスすることができないため、FED-PUBはランダムグラフを入力としてローカルGNNの機能埋め込みを利用し、類似性を計算し、サーバ側アグリゲーションの重み付け平均化を行う。
さらに、各クライアントのパーソナライズされたスパースマスクを学習し、集約されたパラメータのサブグラフ関連サブセットのみを選択して更新する。
我々は,FED-PUBのサブグラフFL性能を6つのデータセットで検証し,非オーバーラップとオーバーラップの両方のサブグラフを考慮し,関連するベースラインを著しく上回ることを示した。
私たちのコードはhttps://github.com/jinheonbaek/fed-pubで利用可能です。
関連論文リスト
- Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - SSHPool: The Separated Subgraph-based Hierarchical Pooling [47.78745802682822]
グラフ分類のための新しい局所グラフプーリング法,すなわち分離部分グラフベース階層プール(SSH)を開発した。
局所グラフ畳み込み単位を局所構造として個別に用いて各部分グラフをより粗いノードに圧縮する。
我々は、グラフ分類のためのSSHPoolモジュールに関連するエンドツーエンドのGNNフレームワークを開発する。
論文 参考訳(メタデータ) (2024-03-24T13:03:35Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - MGNet: Learning Correspondences via Multiple Graphs [78.0117352211091]
学習対応は、不均一な対応分布と低い不整合率で設定された初期対応から正しい対応を見つけることを目的としている。
最近の進歩は、通常、グラフニューラルネットワーク(GNN)を使用して単一のタイプのグラフを構築したり、グローバルなグラフに局所グラフをスタックしてタスクを完了させる。
本稿では,複数の補完グラフを効果的に組み合わせるためのMGNetを提案する。
論文 参考訳(メタデータ) (2024-01-10T07:58:44Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Stochastic Subgraph Neighborhood Pooling for Subgraph Classification [2.1270496914042996]
Subgraph Neighborhood Pooling (SSNP) は、ラベル付けトリックのような計算コストの高い操作をすることなく、サブグラフとその周辺情報を共同で集約する。
実験により、我々のモデルは、トレーニングにおいて最大3倍高速でありながら、最先端の手法(マージンが最大2%)より優れています。
論文 参考訳(メタデータ) (2023-04-17T18:49:18Z) - Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection [57.34881616131377]
異なるエッジに対して最適なサブグラフを自動,個人的,帰納的に識別するプラグイン・アンド・プレイ・フレームワークとしてパーソナライズされたサブグラフセレクタ(PS2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPトレーニングに対する新たなアプローチとして,まずエッジの最適な部分グラフを識別し,次にサンプル部分グラフを用いて推論モデルをトレーニングすることを提案する。
論文 参考訳(メタデータ) (2022-12-23T17:30:19Z) - Subgraph Federated Learning with Missing Neighbor Generation [24.179417092273187]
サブグラフフェデレーション学習は、グラフデータを直接共有することなく、強力で一般化可能なグラフマイニングモデルを協調的にトレーニングすることを目的としている。
本稿では,1)FedSageのノード特徴,リンク構造,タスクラベルを統合するためにFedAvgをベースとしたGraphSageモデルをトレーニングするFedSageと,2)FedSageに沿って欠落した隣のジェネレータをトレーニングしてローカルサブグラフ間のリンクの欠落に対処するFedSage+という2つの主要な手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T04:58:55Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。