論文の概要: One Node Per User: Node-Level Federated Learning for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2409.19513v1
- Date: Sun, 29 Sep 2024 02:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:06:26.634768
- Title: One Node Per User: Node-Level Federated Learning for Graph Neural Networks
- Title(参考訳): ユーザ毎のノード: グラフニューラルネットワークのためのノードレベルフェデレーション学習
- Authors: Zhidong Gao, Yuanxiong Guo, Yanmin Gong,
- Abstract要約: ノードレベルのフェデレーショングラフ学習のための新しいフレームワークを提案する。
特徴ベクトルの潜在表現に基づくグラフラプラシアン項を導入し,ユーザ側モデル更新を制御する。
- 参考スコア(独自算出の注目度): 7.428431479479646
- License:
- Abstract: Graph Neural Networks (GNNs) training often necessitates gathering raw user data on a central server, which raises significant privacy concerns. Federated learning emerges as a solution, enabling collaborative model training without users directly sharing their raw data. However, integrating federated learning with GNNs presents unique challenges, especially when a client represents a graph node and holds merely a single feature vector. In this paper, we propose a novel framework for node-level federated graph learning. Specifically, we decouple the message-passing and feature vector transformation processes of the first GNN layer, allowing them to be executed separately on the user devices and the cloud server. Moreover, we introduce a graph Laplacian term based on the feature vector's latent representation to regulate the user-side model updates. The experiment results on multiple datasets show that our approach achieves better performance compared with baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)トレーニングは、しばしば中央サーバに生のユーザデータを収集する必要がある。
フェデレーション学習はソリューションとして登場し、ユーザが生データを直接共有することなく、協調的なモデルトレーニングを可能にする。
しかし、GNNにフェデレートした学習を統合することは、特にクライアントがグラフノードを表現し、単に単一の特徴ベクトルを保持する場合、ユニークな課題を示す。
本稿では,ノードレベルのフェデレーショングラフ学習のための新しいフレームワークを提案する。
具体的には、第1のGNN層のメッセージパッシングと特徴ベクトル変換処理を分離し、ユーザデバイスとクラウドサーバ上で個別に実行されるようにする。
さらに,特徴ベクトルの潜在表現に基づくグラフラプラシアン項を導入し,ユーザ側モデル更新を制御する。
複数のデータセットに対する実験結果から,本手法はベースラインよりも性能がよいことが示された。
関連論文リスト
- A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - GNN4FR: A Lossless GNN-based Federated Recommendation Framework [13.672867761388675]
グラフニューラルネットワーク(GNN)はレコメンデーションシステムで広く普及している。
本フレームワークは,完全高次構造情報を用いたフルグラフ学習を実現する。
さらに、LightGCNを使ってフレームワークの例をインスタンス化し、その等価性を示す。
論文 参考訳(メタデータ) (2023-07-25T16:55:17Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - FedGraph: Federated Graph Learning with Intelligent Sampling [7.798227884125872]
フェデレーション学習は、分散機械学習におけるプライバシー保護のために、多くの研究の注目を集めている。
既存のフェデレーション学習の作業は主に畳み込みニューラルネットワーク(CNN)に焦点を当てており、多くのアプリケーションで人気のあるグラフデータを効率的に扱えない。
本稿では,複数のコンピュータクライアント間でのフェデレーショングラフ学習のためのFedGraphを提案する。
論文 参考訳(メタデータ) (2021-11-02T04:58:03Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs [18.23435958000212]
グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
既存のGNNモデルの多くは、隣接するノード情報を集約するために単一のタイプのアグリゲータを利用している。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意と相互作用ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2020-11-03T00:20:24Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。