論文の概要: AdaFGL: A New Paradigm for Federated Node Classification with Topology
Heterogeneity
- arxiv url: http://arxiv.org/abs/2401.11750v1
- Date: Mon, 22 Jan 2024 08:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 15:02:28.605627
- Title: AdaFGL: A New Paradigm for Federated Node Classification with Topology
Heterogeneity
- Title(参考訳): adafgl:トポロジーの不均一性を考慮したフェデレーションノード分類の新しいパラダイム
- Authors: Xunkai Li, Zhengyu Wu, Wentao Zhang, Henan Sun, Rong-Hua Li, Guoren
Wang
- Abstract要約: Federated Graph Learning (FGL) はグラフニューラルネットワークに基づく分散フレームワークとして注目されている。
構造的非イド分割の概念を導入し、次に、UnderlineAdaptive UnderlineFederated UnderlineGraph UnderlineLearning (AdaFGL)と呼ばれる新しいパラダイムを示す。
提案したAdaFGLは,コミュニティ分割の3.24%,コミュニティ分割の5.57%,非イド分割の5.57%でベースラインを上回った。
- 参考スコア(独自算出の注目度): 44.11777886421429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Federated Graph Learning (FGL) has attracted significant attention
as a distributed framework based on graph neural networks, primarily due to its
capability to break data silos. Existing FGL studies employ community split on
the homophilous global graph by default to simulate federated semi-supervised
node classification settings. Such a strategy assumes the consistency of
topology between the multi-client subgraphs and the global graph, where
connected nodes are highly likely to possess similar feature distributions and
the same label. However, in real-world implementations, the varying
perspectives of local data engineering result in various subgraph topologies,
posing unique heterogeneity challenges in FGL. Unlike the well-known label
Non-independent identical distribution (Non-iid) problems in federated
learning, FGL heterogeneity essentially reveals the topological divergence
among multiple clients, namely homophily or heterophily. To simulate and handle
this unique challenge, we introduce the concept of structure Non-iid split and
then present a new paradigm called \underline{Ada}ptive \underline{F}ederated
\underline{G}raph \underline{L}earning (AdaFGL), a decoupled two-step
personalized approach. To begin with, AdaFGL employs standard multi-client
federated collaborative training to acquire the federated knowledge extractor
by aggregating uploaded models in the final round at the server. Then, each
client conducts personalized training based on the local subgraph and the
federated knowledge extractor. Extensive experiments on the 12 graph benchmark
datasets validate the superior performance of AdaFGL over state-of-the-art
baselines. Specifically, in terms of test accuracy, our proposed AdaFGL
outperforms baselines by significant margins of 3.24\% and 5.57\% on community
split and structure Non-iid split, respectively.
- Abstract(参考訳): 最近、フェデレートグラフ学習(FGL)は、主にデータサイロを壊す能力のために、グラフニューラルネットワークに基づく分散フレームワークとして注目されている。
既存のfgl研究では、相同性グローバルグラフのコミュニティ分割をデフォルトで採用し、フェデレーションされた半教師付きノード分類設定をシミュレートしている。
このような戦略は、連結ノードが同様の特徴分布と同一ラベルを持つ可能性が極めて高いような、マルチクライアント部分グラフとグローバルグラフの間のトポロジーの整合性を仮定する。
しかし、実世界の実装では、ローカルデータエンジニアリングの様々な視点が様々な部分グラフトポロジーをもたらし、FGLに固有の異種性課題を提起する。
フェデレーション学習におけるよく知られたラベル非独立同一分布(非iid)問題とは異なり、fglの不均一性は本質的に、ホモフィリやヘテロフィリといった複数のクライアント間のトポロジカルな発散を明らかにする。
このユニークな課題をシミュレートし、対処するために、非iid分割構造の概念を導入し、分離された2段階のパーソナライズアプローチである \underline{ada}ptive \underline{f}ederated \underline{g}raph \underline{l}earning (adafgl)という新しいパラダイムを提案する。
まず、AdaFGLは、サーバのファイナルラウンドでアップロードされたモデルを集約することで、標準のマルチクライアント・フェデレート・コラボレーティブトレーニングを使用して、フェデレートされた知識抽出器を取得する。
そして、各クライアントは、ローカルサブグラフと連合知識抽出器に基づいてパーソナライズされたトレーニングを行う。
12のグラフベンチマークデータセットに対する大規模な実験は、最先端のベースラインよりもAdaFGLの優れたパフォーマンスを検証する。
具体的には,提案するadafglは,コミュニティスプリットと非iidスプリットの構造において,それぞれ3.24\%と5.57\%というかなりのマージンでベースラインを上回っている。
関連論文リスト
- Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation [16.599474223790843]
Federated Graph Learning (FGL)は、分類タスクのために複数のクライアントで協調的なトレーニングを可能にすることで、広く注目を集めている。
本研究では,エッジ・クライアント・コラボレーションにおける情報フローの促進を目的とした新しいFGLフレームワークSpreadFGLを提案する。
本研究では,SpreadFGLが最先端のアルゴリズムに対して精度が高く,より高速な収束を実現することを示す。
論文 参考訳(メタデータ) (2024-07-14T09:34:19Z) - Federated Graph Semantic and Structural Learning [54.97668931176513]
本稿では,ノードレベルのセマンティクスとグラフレベルの構造の両方によって局所的なクライアントの歪みがもたらされることを示す。
構造的グラフニューラルネットワークは、固有の隣接関係のため、隣人に類似性を持っていると仮定する。
我々は、隣接関係を類似度分布に変換し、グローバルモデルを利用して関係知識を局所モデルに蒸留する。
論文 参考訳(メタデータ) (2024-06-27T07:08:28Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - HiFGL: A Hierarchical Framework for Cross-silo Cross-device Federated Graph Learning [12.073150043485084]
Federated Graph Learning (FGL)は、分散グラフデータから高品質な表現を学習するための有望な方法として登場した。
クロスデバイスFGLのための階層型フェデレーショングラフ学習フレームワークを提案する。
具体的には、異種クライアント上でのフェデレーション付きGNNトレーニングを保護するために、統一階層型アーキテクチャを考案する。
論文 参考訳(メタデータ) (2024-06-15T12:34:40Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedTAD: Topology-aware Data-free Knowledge Distillation for Subgraph Federated Learning [12.834423184614849]
サブグラフフェデレートラーニング(Subgraph Federated Learning, Subgraph-FL)は、マルチクライアントサブグラフによるグラフニューラルネットワーク(GNN)の協調トレーニングを容易にする。
ノードとトポロジの変化は、複数のローカルGNNのクラスレベルの知識信頼性に大きな違いをもたらす。
本研究では,局所モデルからグローバルモデルへの信頼性の高い知識伝達を促進するために,トポロジ対応データフリーな知識蒸留技術(FedTAD)を提案する。
論文 参考訳(メタデータ) (2024-04-22T10:19:02Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。