論文の概要: Federated Spectral Graph Transformers Meet Neural Ordinary Differential Equations for Non-IID Graphs
- arxiv url: http://arxiv.org/abs/2504.11808v1
- Date: Wed, 16 Apr 2025 06:43:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:39:01.208746
- Title: Federated Spectral Graph Transformers Meet Neural Ordinary Differential Equations for Non-IID Graphs
- Title(参考訳): 非IIDグラフに対するニューラル正規微分方程式を用いたフェデレーションスペクトル変換器
- Authors: Kishan Gurumurthy, Himanshu Pal, Charu Sharma,
- Abstract要約: グラフニューラルネットワーク(GNN)の研究は、グラフ構造化データから分散表現を学習する能力のため、急速に進歩している。
GNNトレーニングのための大量の実世界のグラフデータを集中化することは、プライバシの懸念、規制規制、商業的競争のためにしばしば現実的ではない。
本稿では, ニューラル常微分方程式(ODE)を用いたスペクトルGNNをベースとした, GNN上でのフェデレーション学習手法を提案する。
- 参考スコア(独自算出の注目度): 3.345437353879255
- License:
- Abstract: Graph Neural Network (GNN) research is rapidly advancing due to GNNs' capacity to learn distributed representations from graph-structured data. However, centralizing large volumes of real-world graph data for GNN training is often impractical due to privacy concerns, regulatory restrictions, and commercial competition. Federated learning (FL), a distributed learning paradigm, offers a solution by preserving data privacy with collaborative model training. Despite progress in training huge vision and language models, federated learning for GNNs remains underexplored. To address this challenge, we present a novel method for federated learning on GNNs based on spectral GNNs equipped with neural ordinary differential equations (ODE) for better information capture, showing promising results across both homophilic and heterophilic graphs. Our approach effectively handles non-Independent and Identically Distributed (non-IID) data, while also achieving performance comparable to existing methods that only operate on IID data. It is designed to be privacy-preserving and bandwidth-optimized, making it suitable for real-world applications such as social network analysis, recommendation systems, and fraud detection, which often involve complex, non-IID, and heterophilic graph structures. Our results in the area of federated learning on non-IID heterophilic graphs demonstrate significant improvements, while also achieving better performance on homophilic graphs. This work highlights the potential of federated learning in diverse and challenging graph settings. Open-source code available on GitHub (https://github.com/SpringWiz11/Fed-GNODEFormer).
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の研究は、グラフ構造化データから分散表現を学習する能力のため、急速に進歩している。
しかし、GNNトレーニングのための大量の実世界のグラフデータを集中化することは、プライバシー上の懸念、規制規制、商業上の競争のためにしばしば現実的ではない。
分散学習パラダイムであるフェデレートラーニング(FL)は、データのプライバシを協調モデルトレーニングで保護することで、ソリューションを提供する。
巨大なビジョンと言語モデルのトレーニングの進展にもかかわらず、GNNのための連合学習は未熟である。
この課題に対処するために,ニューラル常微分方程式(ODE)を備えたスペクトルGNNを用いたGNN上でのフェデレーション学習手法を提案する。
提案手法は,非独立分散(非IID)データを効果的に処理すると同時に,IDDデータのみで動作する既存のメソッドに匹敵する性能を実現する。
プライバシー保護と帯域幅最適化を念頭に設計されており、ソーシャルネットワーク分析、レコメンデーションシステム、不正検出など、複雑な非IIDグラフ構造を含む現実世界のアプリケーションに適している。
非IIDヘテロ親和グラフにおけるフェデレート学習の分野における本研究の結果は,ホモ親和グラフの性能も向上しつつ,大幅な改善が見られた。
この研究は、多様で挑戦的なグラフ設定における連合学習の可能性を強調している。
GitHubで公開されているオープンソースコード(https://github.com/SpringWiz11/Fed-GNODEFormer)。
関連論文リスト
- Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - FedHGN: A Federated Framework for Heterogeneous Graph Neural Networks [45.94642721490744]
不均一グラフニューラルネットワーク(HGNN)は、従来のGNNよりも、型付きグラフデータやリレーショナルグラフデータからより効果的に学習することができる。
より大きなパラメータ空間では、HGNNはより多くのトレーニングデータを必要とする可能性がある。
我々は,HGNNのための新規かつ汎用的なFGLフレームワークであるFedHGNを提案する。
論文 参考訳(メタデータ) (2023-05-16T18:01:49Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural
Networks [13.965982814292971]
グラフニューラルネットワーク(GNN)は、グラフ機械学習問題の第一選択方法である。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
本研究では,新しいマルチタスク・フェデレーション・トレーニング・フレームワークであるSpreadGNNを提案する。
論文 参考訳(メタデータ) (2021-06-04T22:20:47Z) - FedGraphNN: A Federated Learning System and Benchmark for Graph Neural
Networks [68.64678614325193]
グラフニューラルネットワーク(GNN)の研究は、グラフ構造データから表現を学ぶGNNの能力のおかげで急速に成長しています。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
GNNベースのFL研究を促進するためのオープンリサーチフェデレーション学習システムとベンチマークであるFedGraphNNを紹介します。
論文 参考訳(メタデータ) (2021-04-14T22:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。