論文の概要: FedIA: A Plug-and-Play Importance-Aware Gradient Pruning Aggregation Method for Domain-Robust Federated Graph Learning on Node Classification
- arxiv url: http://arxiv.org/abs/2509.18171v1
- Date: Wed, 17 Sep 2025 13:04:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.45109
- Title: FedIA: A Plug-and-Play Importance-Aware Gradient Pruning Aggregation Method for Domain-Robust Federated Graph Learning on Node Classification
- Title(参考訳): FedIA: ノード分類に基づくドメイン・ロバストなフェデレーショングラフ学習のためのプラグ・アンド・プレイの重要度を考慮したグラディエント・プルーニング・アグリゲーション手法
- Authors: Zhanting Zhou, KaHou Tam, Zeqin Wu, Pengzhao Sun, Jinbo Wang, Fengli Zhang,
- Abstract要約: ドメインスキュー下でのフェデレーショングラフラーニング(FGL) -- emphTwitch GamersやマルチリンガルのemphWikipediaネットワークなどのプラットフォームで見られる — は、クライアントモデルを互換性のない表現に向けて推進し、不安定かつ非効率なアグリゲーションをレンダリングする。
基礎線法を実証的に解析した結果, 勾配次元の大部分が領域固有の分散によって支配されることが示唆された。
- 参考スコア(独自算出の注目度): 4.544368428086142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Graph Learning (FGL) under domain skew -- as observed on platforms such as \emph{Twitch Gamers} and multilingual \emph{Wikipedia} networks -- drives client models toward incompatible representations, rendering naive aggregation both unstable and ineffective. We find that the culprit is not the weighting scheme but the \emph{noisy gradient signal}: empirical analysis of baseline methods suggests that a vast majority of gradient dimensions can be dominated by domain-specific variance. We therefore shift focus from "aggregation-first" to a \emph{projection-first} strategy that denoises client updates \emph{before} they are combined. The proposed FedIA framework realises this \underline{I}mportance-\underline{A}ware idea through a two-stage, plug-and-play pipeline: (i) a server-side top-$\rho$ mask keeps only the most informative about 5% of coordinates, and (ii) a lightweight influence-regularised momentum weight suppresses outlier clients. FedIA adds \emph{no extra uplink traffic and only negligible server memory}, making it readily deployable. On both homogeneous (Twitch Gamers) and heterogeneous (Wikipedia) graphs, it yields smoother, more stable convergence and higher final accuracy than nine strong baselines. A convergence sketch further shows that dynamic projection maintains the optimal $\mathcal{O}(\sigma^{2}/\sqrt{T})$ rate.
- Abstract(参考訳): ドメインスキュー下でのフェデレーショングラフラーニング(FGL) -- \emph{Twitch Gamers} や multilingual \emph{Wikipedia} ネットワークなどのプラットフォームで見られる — は、クライアントモデルを非互換な表現に向けて駆動し、不安定かつ非効率な集約をレンダリングする。
基礎線法を実証的に解析した結果、勾配次元の大部分が領域固有の分散によって支配されることが示唆された。
ですから私たちは、"集約ファースト"から、それらを組み合わせたクライアント更新を軽視する‘emph{projection-first}戦略に焦点を移します。
提案されたFedIAフレームワークは,2段階のプラグアンドプレイパイプラインを通じて,この‘underline{I}mportance-\underline{A}ware’の概念を実現する。
(i)サーバサイドのトップ-$\rho$マスクは、座標の約5%しか情報を持たない。
(ii) 軽量な影響調整運動量重みは、外れ値のクライアントを抑圧する。
FedIA は \emph{no extra uplink traffic and only negligible server memory} を追加し、簡単にデプロイできる。
ホモジニアス(Twitch Gamers)グラフとヘテロジニアス(Wikipedia)グラフの両方において、9つの強いベースラインよりも滑らかで、より安定した収束と最終的な精度が得られる。
収束スケッチはさらに、動的射影が最適な$\mathcal{O}(\sigma^{2}/\sqrt{T})$レートを維持することを示している。
関連論文リスト
- Decentralized Sporadic Federated Learning: A Unified Algorithmic Framework with Convergence Guarantees [18.24213566328972]
分散学習計算(DFL)は、(i)モデル更新と(ii)モデルアグリゲーションの両方が中央サーバなしでクライアントによって実行されるFL設定をキャプチャする。
$textttDSpodFL$は、ローカルグラデーションとアグリゲーションプロセスの両方において、$textitsporadicity$という一般的な概念に基づいて構築されたDFL方法論である。
$textttDSpodFL$は、さまざまなシステム設定のベースラインと比較して、改善されたスピードを一貫して達成する。
論文 参考訳(メタデータ) (2024-02-05T19:02:19Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Efficient Link Prediction via GNN Layers Induced by Negative Sampling [86.87385758192566]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
本稿では,新しいGNNアーキテクチャを提案する。このアーキテクチャでは,Emphforwardパスは,Emphboth陽性(典型的)と負陰性(アプローチに共通)のエッジに明示的に依存する。
これは、埋め込み自体を、正と負のサンプルの分離を好むフォワードパス特異的エネルギー関数の最小化子として再キャストすることで達成される。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - Domain Decorrelation with Potential Energy Ranking [40.43902519672898]
textbfPotential textbfEnergy textbfRanking (PoER)を提案する。
PoERは、浅い層にドメイン情報を含むラベル関連機能をニューラルネットワークがキャプチャするのに役立つ。
ドメインベンチマークのパフォーマンスが向上し、既存の手法に比べて平均トップ1の精度が1.20%向上したと報告している。
論文 参考訳(メタデータ) (2022-07-25T13:33:53Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - SIGMA: Semantic-complete Graph Matching for Domain Adaptive Object
Detection [26.0630601028093]
ドメイン適応オブジェクト検出(DAOD)は、ラベル付きドメインを利用して、アノテーションのない新しいドメインに一般化されたオブジェクト検出器を学ぶ。
クロスドメインプロトタイプ(クラスセンター)の縮小によるクラス条件分布の調整
本稿では,不一致のセマンティックスを補完し,グラフマッチングによる適応を再構築する,幻覚Dのための新しいSemantIc完全グラフマッチングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-12T10:14:17Z) - Accelerated Gradient Tracking over Time-varying Graphs for Decentralized Optimization [59.65871549878937]
実用的な単一ループ加速勾配追跡には$O(fracgamma1-sigma_gamma)2sqrtfracLepsilon)$が必要であることを証明している。
我々の収束率は$O(frac1epsilon5/7)$と$O(fracLmu)5/7frac1(1-sigma)1.5logfrac1epsilon)$よりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-06T15:34:14Z) - Faster Non-Convex Federated Learning via Global and Local Momentum [57.52663209739171]
textttFedGLOMOは最初の(一階)FLtexttFedGLOMOアルゴリズムです。
クライアントとサーバ間の通信においても,我々のアルゴリズムは確実に最適である。
論文 参考訳(メタデータ) (2020-12-07T21:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。