論文の概要: Communication-Computation Efficient Secure Aggregation for Federated
Learning
- arxiv url: http://arxiv.org/abs/2012.05433v2
- Date: Mon, 21 Dec 2020 03:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:06:38.629508
- Title: Communication-Computation Efficient Secure Aggregation for Federated
Learning
- Title(参考訳): フェデレーション学習のためのコミュニケーション計算効率の良いセキュアアグリゲーション
- Authors: Beongjun Choi, Jy-yong Sohn, Dong-Jun Han and Jaekyun Moon
- Abstract要約: フェデレーションラーニングは、ノードがデータを共有せずに、複数のノードに分散したデータを使用してニューラルネットワークを訓練する方法です。
セキュアアグリゲーションプリミティブに基づく最近のソリューションでは,プライバシ保護型のフェデレーション学習が可能だったが,通信/計算リソースが大幅に増加した。
通信・計算資源の量を大幅に削減する通信・計算効率のよいセキュアアグリゲーションを提案する。
- 参考スコア(独自算出の注目度): 23.924656276456503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has been spotlighted as a way to train neural networks
using data distributed over multiple nodes without the need for the nodes to
share data. Unfortunately, it has also been shown that data privacy could not
be fully guaranteed as adversaries may be able to extract certain information
on local data from the model parameters transmitted during federated learning.
A recent solution based on the secure aggregation primitive enabled
privacy-preserving federated learning, but at the expense of significant extra
communication/computational resources. In this paper, we propose
communication-computation efficient secure aggregation which substantially
reduces the amount of communication/computational resources relative to the
existing secure solution without sacrificing data privacy. The key idea behind
the suggested scheme is to design the topology of the secret-sharing nodes as
sparse random graphs instead of the complete graph corresponding to the
existing solution. We first obtain the necessary and sufficient condition on
the graph to guarantee reliable and private federated learning in the
information-theoretic sense. We then suggest using the Erd\H{o}s-R\'enyi graph
in particular and provide theoretical guarantees on the reliability/privacy of
the proposed scheme. Through extensive real-world experiments, we demonstrate
that our scheme, using only $20 \sim 30\%$ of the resources required in the
conventional scheme, maintains virtually the same levels of reliability and
data privacy in practical federated learning systems.
- Abstract(参考訳): フェデレーション学習は、ノードがデータを共有する必要なしに、複数のノードに分散したデータを使用してニューラルネットワークをトレーニングする方法として注目されている。
残念なことに、フェデレーション学習中に送信されるモデルパラメータから、敵がローカルデータに関する特定の情報を抽出することができるため、データのプライバシが完全に保証されないことも示されている。
セキュアアグリゲーションプリミティブに基づく最近のソリューションでは,プライバシ保護型のフェデレーション学習が可能だったが,通信/計算リソースが大幅に増加した。
本稿では,データプライバシを犠牲にすることなく,既存のセキュアソリューションに対する通信/計算リソースの量を大幅に削減する通信計算効率の高いセキュアアグリゲーションを提案する。
提案手法の背後にある重要なアイデアは、秘密共有ノードのトポロジーを、既存のソリューションに対応する完全なグラフではなく、スパースランダムグラフとして設計することである。
まず、情報理論的な意味での信頼性とプライベートなフェデレーション学習を保証するために、グラフ上で必要かつ十分な条件を得る。
次に,特にerd\h{o}s-r\'enyiグラフを用いることを提案し,提案手法の信頼性とプライバシーに関する理論的保証を提供する。
実世界の大規模な実験を通じて,従来のスキームで必要とされるリソースのわずか20:sim 30\%を使用すれば,実践的なフェデレート学習システムにおいて,ほぼ同じレベルの信頼性とデータプライバシを維持することが実証された。
関連論文リスト
- UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Graph Federated Learning Based on the Decentralized Framework [8.619889123184649]
グラフフェデレーション学習は主に古典的なフェデレーション学習フレームワーク、すなわちクライアントサーバーフレームワークに基づいている。
グラフフェデレーション学習に分散フレームワークを導入する。
提案手法の有効性を検証するため,提案手法をFedAvg,Fedprox,GCFL,GCFL+と比較した。
論文 参考訳(メタデータ) (2023-07-19T07:40:51Z) - Semi-decentralized Federated Ego Graph Learning for Recommendation [58.21409625065663]
デバイス上でのレコメンデーションのための半分散型フェデレーションエゴグラフ学習フレームワークであるSemiDFEGLを提案する。
提案するフレームワークはモデルに依存しないため、既存のグラフニューラルネットワークベースのレコメンデーションメソッドやプライバシ保護技術とシームレスに統合できる。
論文 参考訳(メタデータ) (2023-02-10T03:57:45Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Preserving Privacy in Federated Learning with Ensemble Cross-Domain
Knowledge Distillation [22.151404603413752]
Federated Learning(FL)は、ローカルノードが中央モデルを協調的にトレーニングする機械学習パラダイムである。
既存のFLメソッドはモデルパラメータを共有したり、不均衡なデータ分散の問題に対処するために共蒸留を用いるのが一般的である。
我々は,一発のオフライン知識蒸留を用いたFLフレームワークにおいて,プライバシ保護と通信効率のよい手法を開発した。
論文 参考訳(メタデータ) (2022-09-10T05:20:31Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - FedSKETCH: Communication-Efficient and Private Federated Learning via
Sketching [33.54413645276686]
コミュニケーションの複雑さとプライバシは、フェデレートラーニングにおける2つの重要な課題である。
我々はFedSKETCHとFedSKETCHGATEアルゴリズムを導入し、Federated Learningにおける両方の課題に共同で対処する。
論文 参考訳(メタデータ) (2020-08-11T19:22:48Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。