論文の概要: A Federated Deep Learning Framework for Privacy Preservation and
Communication Efficiency
- arxiv url: http://arxiv.org/abs/2001.09782v3
- Date: Wed, 5 Jan 2022 05:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 19:01:44.789401
- Title: A Federated Deep Learning Framework for Privacy Preservation and
Communication Efficiency
- Title(参考訳): プライバシー保護と通信効率のための連合型ディープラーニングフレームワーク
- Authors: Tien-Dung Cao, Tram Truong-Huu, Hien Tran, and Khanh Tran
- Abstract要約: 我々は、プライバシ保護と通信効率のためのフェデレーション深層学習フレームワークであるFedPCを開発した。
FedPCは、中間データであっても、トレーニングデータの情報を公開せずに、モデルを複数のプライベートデータセットで学習可能にする。
その結果、FedPCはデータが10の計算ノードに分散された場合、中央訓練されたモデルの8.5%の価格でモデルの性能近似を維持していることがわかった。
- 参考スコア(独自算出の注目度): 1.2599533416395765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved great success in many applications. However, its
deployment in practice has been hurdled by two issues: the privacy of data that
has to be aggregated centrally for model training and high communication
overhead due to transmission of a large amount of data usually geographically
distributed. Addressing both issues is challenging and most existing works
could not provide an efficient solution. In this paper, we develop FedPC, a
Federated Deep Learning Framework for Privacy Preservation and Communication
Efficiency. The framework allows a model to be learned on multiple private
datasets while not revealing any information of training data, even with
intermediate data. The framework also minimizes the amount of data exchanged to
update the model. We formally prove the convergence of the learning model when
training with FedPC and its privacy-preserving property. We perform extensive
experiments to evaluate the performance of FedPC in terms of the approximation
to the upper-bound performance (when training centrally) and communication
overhead. The results show that FedPC maintains the performance approximation
of the models within $8.5\%$ of the centrally-trained models when data is
distributed to 10 computing nodes. FedPC also reduces the communication
overhead by up to $42.20\%$ compared to existing works.
- Abstract(参考訳): ディープラーニングは多くのアプリケーションで大きな成功を収めています。
しかし、その実際の展開は、モデルトレーニングのために中央に集約しなければならないデータのプライバシと、通常地理的に分散された大量のデータの送信による高い通信オーバーヘッドの2つの問題によってハードルを払っている。
どちらの問題にも対処することは困難であり、既存の作業は効率的なソリューションを提供しられなかった。
本稿では,プライバシ保護と通信効率のためのフェデレート深層学習フレームワークであるFedPCを開発する。
このフレームワークは、モデルが複数のプライベートデータセット上で学習できると同時に、中間データであってもトレーニングデータの情報を明らかにしない。
フレームワークはまた、モデルを更新するために交換されるデータ量を最小限にする。
fedpcとそのプライバシ保護プロパティのトレーニングにおいて,学習モデルの収束を正式に証明する。
我々は,FedPCの性能を評価するために,上行性能(集中訓練時)と通信オーバーヘッドを近似的に評価する広範囲な実験を行った。
その結果、FedPCはデータが10の計算ノードに分散された場合、中央訓練されたモデルの8.5\%の範囲内でモデルのパフォーマンス近似を維持していることがわかった。
FedPCは既存の作業と比べて通信オーバーヘッドを最大42.20 %まで削減している。
関連論文リスト
- Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Communication-Efficient Federated Learning with Dual-Side Low-Rank
Compression [8.353152693578151]
Federated Learning(FL)は、クライアントの生データを共有せずにディープラーニングモデルをトレーニングするための有望で強力なアプローチです。
両サイドローランク圧縮(FedDLR)を用いたフェデレーションラーニングと呼ばれる新しいトレーニング手法を提案する。
我々は,FedDLRがコミュニケーションと効率の両面で最先端のソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T09:13:31Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。