論文の概要: M3FGM:a node masking and multi-granularity message passing-based
federated graph model for spatial-temporal data prediction
- arxiv url: http://arxiv.org/abs/2210.16193v1
- Date: Thu, 27 Oct 2022 16:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:30:25.026116
- Title: M3FGM:a node masking and multi-granularity message passing-based
federated graph model for spatial-temporal data prediction
- Title(参考訳): M3FGM:ノードマスキングと多粒度メッセージパスベースフェデレーショングラフモデルによる時空間データ予測
- Authors: Yuxing Tian, Zheng Liu, Yanwen Qu
- Abstract要約: ノードマスキングとマルチグラニュラリティメッセージパスベースフェデレートグラフモデル(M3FGM)と呼ばれる新しい埋め込み集約構造FLアプローチ
M3FGMのサーバモデルは、オフラインクライアントのケースをシミュレートするためにMaskNodeレイヤを使用している。
MGMP(Multi-Granularity Message Passing)と呼ばれる新しいGNNレイヤは、各クライアントノードがグローバルおよびローカル情報を知覚できるようにする。
- 参考スコア(独自算出の注目度): 2.793446335600599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researchers are solving the challenges of spatial-temporal prediction by
combining Federated Learning (FL) and graph models with respect to the
constrain of privacy and security. However, there are still several issues left
unattended: 1) Clients might not be able to access the server during inference
phase; 2) The graph of clients designed manually in the server model may not
reveal the proper relationship between clients. This paper proposes a new
embeddings aggregation structured FL approach named node Masking and
Multi-granularity Message passing-based Federated Graph Model (M3FGM) for the
above issues. The server model of M3FGM employs a MaskNode layer to simulate
the case of offline clients. We also redesign the decoder of the client model
using a dual-sub-decoders structure so that each client model can use its local
data to predict independently when offline. As for the second issue, A new GNN
layer named Multi-Granularity Message Passing (MGMP) allows each client node to
perceive global and local information.We conducted extensive experiments in two
different scenarios on two real traffic datasets. Results show that the
proposed model outperforms the baselines and variant models, achieves the best
results in both scenarios.
- Abstract(参考訳): 研究者たちは、プライバシーとセキュリティの制約に関して、連合学習(fl)とグラフモデルを組み合わせることで、空間-時間予測の課題を解決している。
しかし、未解決の問題がいくつか残っている。
1) クライアントは,推論フェーズ中にサーバにアクセスできないかもしれない。
2) サーバモデルで手動で設計したクライアントのグラフは,クライアント間の適切な関係を明らかにするものではない。
本稿では,ノードマスキングとマルチ粒度メッセージパッシングに基づくフェデレーショングラフモデル(m3fgm)という新しい埋め込み集約型構造化fl手法を提案する。
m3fgmのサーバモデルは、マスクノード層を使用してオフラインクライアントのケースをシミュレートする。
また、クライアントモデルのデコーダをデュアルサブデコーダ構造で再設計し、各クライアントモデルがそのローカルデータをオフライン時に独立して予測できるようにします。
2つ目の問題として、MGMP(Multi-Granularity Message Passing)と呼ばれる新しいGNNレイヤでは、各クライアントノードがグローバルおよびローカル情報を知覚することができる。
その結果,提案モデルがベースラインや変種モデルよりも優れており,両シナリオで最高の結果が得られることがわかった。
関連論文リスト
- Federated Graph Learning with Graphless Clients [52.5629887481768]
FGL(Federated Graph Learning)は、グラフニューラルネットワーク(GNN)などの機械学習モデルをトレーニングするタスクである。
グラフレスクライアントを用いたFGLにおける問題に対処するための新しいフレームワークFedGLSを提案する。
論文 参考訳(メタデータ) (2024-11-13T06:54:05Z) - One Node Per User: Node-Level Federated Learning for Graph Neural Networks [7.428431479479646]
ノードレベルのフェデレーショングラフ学習のための新しいフレームワークを提案する。
特徴ベクトルの潜在表現に基づくグラフラプラシアン項を導入し,ユーザ側モデル更新を制御する。
論文 参考訳(メタデータ) (2024-09-29T02:16:07Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - FedRA: A Random Allocation Strategy for Federated Tuning to Unleash the
Power of Heterogeneous Clients [50.13097183691517]
実世界のフェデレーションシナリオでは、様々な計算と通信資源を持つ多種多様なクライアントが存在することが多い。
本稿では,新しいフェデレーションチューニングアルゴリズムであるFedRAを提案する。
各通信ラウンドにおいて、FedRAはランダムにアロケーション行列を生成する。
アダプタを用いてアロケーション行列とファインチューンに基づいて、元のモデルから少数のレイヤを再編成する。
論文 参考訳(メタデータ) (2023-11-19T04:43:16Z) - Prototype Helps Federated Learning: Towards Faster Convergence [38.517903009319994]
Federated Learning(FL)は、複数のクライアントが協力して、生データを交換することなく、共有モデルをトレーニングする分散機械学習技術である。
本稿では,従来のフェデレーション学習プロセスの最後のグローバルイテレーションにわずかな変更を加えるだけで,推論性能を向上する,プロトタイプベースのフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T04:06:29Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。