論文の概要: On the Geometric Coherence of Global Aggregation in Federated GNN
- arxiv url: http://arxiv.org/abs/2602.15510v1
- Date: Tue, 17 Feb 2026 11:34:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.048483
- Title: On the Geometric Coherence of Global Aggregation in Federated GNN
- Title(参考訳): フェデレーションGNNにおけるグローバルアグリゲーションの幾何学的コヒーレンスについて
- Authors: Chethana Prasad Kabgere, Shylaja SS,
- Abstract要約: フェデレートラーニング(FL)は、集中的なデータ共有なしに、複数のクライアント間で分散トレーニングを可能にする。
グラフニューラルネットワーク(GNN)は、メッセージパッシングを通じて関係データをモデル化する。
フェデレートされたGNN設定では、クライアントグラフは不均一な構造と伝搬特性を示すことが多い。
本研究は,クロスドメインフェデレーションGNNにおけるグローバルアグリゲーションの幾何学的障害モードを特定する。
本稿では,サーバサイドのフレームワークであるGGRSを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning (FL) enables distributed training across multiple clients without centralized data sharing, while Graph Neural Networks (GNNs) model relational data through message passing. In federated GNN settings, client graphs often exhibit heterogeneous structural and propagation characteristics. When standard aggregation mechanisms are applied to such heterogeneous updates, the global model may converge numerically while exhibiting degraded relational behavior.Our work identifies a geometric failure mode of global aggregation in Cross- Domain Federated GNNs. Although GNN parameters are numerically represented as vectors, they encode relational transformations that govern the direction, strength, and sensitivity of information flow across graph neighborhoods. Aggregating updates originating from incompatible propagation regimes can therefore introduce destructive interference in this transformation space.This leads to loss of coherence in global message passing. Importantly, this degradation is not necessarily reflected in conventional metrics such as loss or accuracy.To address this issue, we propose GGRS (Global Geometric Reference Structure), a server-side framework that regulates client updates prior to aggregation based on geometric admissibility criteria. GGRS preserves directional consistency of relational transformations as well as maintains diversity of admissible propagation subspaces. It also stabilizes sensitivity to neighborhood interactions, without accessing client data or graph topology. Experiments on heterogeneous GNN-native, Amazon Co-purchase datasets demonstrate that GGRS preserves global message-passing coherence across training rounds by highlighting the necessity of geometry-aware regulation in federated graph learning.
- Abstract(参考訳): フェデレートラーニング(FL)は、集中的なデータ共有のない複数のクライアント間での分散トレーニングを可能にし、グラフニューラルネットワーク(GNN)はメッセージパッシングを通じてリレーショナルデータをモデル化する。
フェデレートされたGNN設定では、クライアントグラフは不均一な構造と伝搬特性を示すことが多い。
このような不均一な更新に標準アグリゲーション機構を適用すると、大域モデルは、劣化した関係性を示しながら数値的に収束し、我々の研究は、クロスドメインフェデレーションGNNにおけるグローバルアグリゲーションの幾何学的失敗モードを特定する。
GNNパラメータはベクトルとして数値的に表されるが、グラフ近傍における情報の流れの方向、強さ、感度を管理する関係変換を符号化する。
したがって、非互換な伝搬状態から生じる更新の集約は、この変換空間に破壊的な干渉をもたらす可能性がある。
重要なことに、この劣化は必ずしも損失や精度などの従来の指標に反映されるものではなく、幾何学的許容基準に基づいてクライアントの更新を管理するサーバサイドフレームワークであるGGRS(Global Geometric Reference Structure)を提案する。
GGRSはリレーショナル変換の方向整合性を維持し、許容される伝播部分空間の多様性を維持する。
また、クライアントデータやグラフトポロジにアクセスせずに、近隣のインタラクションに対する感度を安定させる。
異質なGNNネイティブ、Amazon Co-purchaseデータセットの実験では、フェデレートされたグラフ学習における幾何学的認識制御の必要性を強調して、GGRSがトレーニングラウンド全体でグローバルなメッセージパッシングコヒーレンスを保存することが示されている。
関連論文リスト
- Fed-Listing: Federated Label Distribution Inference in Graph Neural Networks [5.7422859267106885]
分散ローカルグラフデータによる協調学習を容易にするために,フェデレーショングラフニューラルネットワーク(FedGNN)を提案する。
Fed-Listingは、生のデータやノードの機能にアクセスせずにFedGNN内のターゲットクライアントのプライベートなラベル統計を推測するグラデーションベースの攻撃である。
論文 参考訳(メタデータ) (2026-01-30T23:51:49Z) - Rethinking Federated Graph Foundation Models: A Graph-Language Alignment-based Approach [8.517604507672262]
フェデレーショングラフ基礎モデル(FedGFMs)の最近の研究は、グラフ基礎モデルを訓練するために集中的なデータストレージを持つという理想的かつ持続不可能な仮定を破っている。
ベクトル量子化されたバックボーンを経由した離散トークン空間上の一般化可能な知識が、量子化過程中に不可逆的な知識損失に悩まされるという研究は、現存する。
論文 参考訳(メタデータ) (2026-01-29T07:50:00Z) - GeoGNN: Quantifying and Mitigating Semantic Drift in Text-Attributed Graphs [59.61242815508687]
テキスト分散グラフ(TAG)上のグラフニューラルネットワーク(GNN)は、事前訓練された言語モデル(PLM)を使用してノードテキストを符号化し、これらの埋め込みを線形近傍アグリゲーションを通じて伝播する。
本研究は,意味的ドリフトの度合いを計測する局所PCAベースの計量を導入し,異なる凝集機構が多様体構造にどのように影響するかを解析するための最初の定量的枠組みを提供する。
論文 参考訳(メタデータ) (2025-11-12T06:48:43Z) - Parameter-Free Structural-Diversity Message Passing for Graph Neural Networks [8.462209415744098]
グラフニューラルネットワーク(GNN)はノード分類などの構造化データモデリングタスクにおいて顕著な性能を示した。
本稿では,構造的多様性に基づくパラメータフリーグラフニューラルネットワークフレームワークを提案する。
このフレームワークは構造多様性理論にインスパイアされ、統一された構造多様性メッセージパッシング機構を設計する。
論文 参考訳(メタデータ) (2025-08-27T13:42:45Z) - RelGNN: Composite Message Passing for Relational Deep Learning [56.48834369525997]
RelGNNはリレーショナルデータベースから構築されたグラフのユニークな構造特性を活用するために特別に設計された新しいGNNフレームワークである。
RelGNNは、Relbench(Fey et al., 2024)から30の多様な実世界のタスクで評価され、ほとんどのタスクで最先端のパフォーマンスを実現し、最大25%の改善を実現している。
論文 参考訳(メタデータ) (2025-02-10T18:58:40Z) - Diss-l-ECT: Dissecting Graph Data with Local Euler Characteristic Transforms [13.608942872770855]
グラフ表現学習における表現性と解釈性を高めるために,局所オイラー特性変換(ell$-ECT)を導入する。
本手法は,ノード分類タスクにおける標準グラフニューラルネットワーク(GNN)と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-03T16:02:02Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Relation Matters: Foreground-aware Graph-based Relational Reasoning for
Domain Adaptive Object Detection [81.07378219410182]
我々は、FGRR(Fearground-aware Graph-based Reasoning)というドメインDのための新しい汎用フレームワークを提案する。
FGRRはグラフ構造を検出パイプラインに組み込んで、ドメイン内およびドメイン間フォアグラウンドオブジェクト関係を明示的にモデル化する。
実験の結果、提案したFGRRは4つのDomainDベンチマークの最先端よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-06T05:12:48Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。