論文の概要: Graph Federated Learning Based on the Decentralized Framework
- arxiv url: http://arxiv.org/abs/2307.09801v1
- Date: Wed, 19 Jul 2023 07:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 14:56:11.986033
- Title: Graph Federated Learning Based on the Decentralized Framework
- Title(参考訳): 分散フレームワークに基づくグラフフェデレーション学習
- Authors: Peilin Liu, Yanni Tang, Mingyue Zhang, and Wu Chen
- Abstract要約: グラフフェデレーション学習は主に古典的なフェデレーション学習フレームワーク、すなわちクライアントサーバーフレームワークに基づいている。
グラフフェデレーション学習に分散フレームワークを導入する。
提案手法の有効性を検証するため,提案手法をFedAvg,Fedprox,GCFL,GCFL+と比較した。
- 参考スコア(独自算出の注目度): 8.619889123184649
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph learning has a wide range of applications in many scenarios, which
require more need for data privacy. Federated learning is an emerging
distributed machine learning approach that leverages data from individual
devices or data centers to improve the accuracy and generalization of the
model, while also protecting the privacy of user data. Graph-federated learning
is mainly based on the classical federated learning framework i.e., the
Client-Server framework. However, the Client-Server framework faces problems
such as a single point of failure of the central server and poor scalability of
network topology. First, we introduce the decentralized framework to
graph-federated learning. Second, determine the confidence among nodes based on
the similarity of data among nodes, subsequently, the gradient information is
then aggregated by linear weighting based on confidence. Finally, the proposed
method is compared with FedAvg, Fedprox, GCFL, and GCFL+ to verify the
effectiveness of the proposed method. Experiments demonstrate that the proposed
method outperforms other methods.
- Abstract(参考訳): グラフ学習は多くのシナリオで幅広いアプリケーションを抱えており、データプライバシをより必要としています。
フェデレーション学習(federated learning)は、個々のデバイスやデータセンタのデータを活用して、モデルの正確性と一般化を改善しながら、ユーザのデータのプライバシを保護する、新たな分散機械学習アプローチである。
グラフフェデレーション学習は主に古典的なフェデレーション学習フレームワーク、すなわちクライアントサーバーフレームワークに基づいている。
しかし、クライアントサーバーフレームワークは、中央サーバの単一障害点やネットワークトポロジのスケーラビリティの低下といった問題に直面している。
まず,グラフフェデレーション学習のための分散フレームワークを紹介する。
次に、ノード間のデータの類似性に基づいてノード間の信頼度を決定し、次いで、信頼度に基づく線形重み付けにより勾配情報を集約する。
最後に,提案手法の有効性を検証するため,FedAvg,Fedprox,GCFL,GCFL+と比較した。
実験により,提案手法が他の手法より優れていることが示された。
関連論文リスト
- Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - Differentially Private Vertical Federated Clustering [13.27934054846057]
多くのアプリケーションでは、複数のパーティが同じユーザのセットに関するプライベートデータを持っているが、非結合な属性のセットについてである。
データ対象者のプライバシーを保護しながらモデル学習を可能にするためには、垂直連合学習(VFL)技術が必要である。
本論文で提案するアルゴリズムは, 個人用垂直結合型K平均クラスタリングのための最初の実用的な解法である。
論文 参考訳(メタデータ) (2022-08-02T19:23:48Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。