論文の概要: Aggregation Service for Federated Learning: An Efficient, Secure, and
More Resilient Realization
- arxiv url: http://arxiv.org/abs/2202.01971v1
- Date: Fri, 4 Feb 2022 05:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 15:30:35.480128
- Title: Aggregation Service for Federated Learning: An Efficient, Secure, and
More Resilient Realization
- Title(参考訳): 連合学習のためのアグリゲーションサービス : 効率的でセキュアでレジリエントな実現
- Authors: Yifeng Zheng and Shangqi Lai and Yi Liu and Xingliang Yuan and Xun Yi
and Cong Wang
- Abstract要約: 本稿では,学習過程を通じて個々のモデル更新を効率よく保護するシステム設計を提案する。
本システムは,実用性能で,ベースラインに匹敵する精度を実現している。
- 参考スコア(独自算出の注目度): 22.61730495802799
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning has recently emerged as a paradigm promising the benefits
of harnessing rich data from diverse sources to train high quality models, with
the salient features that training datasets never leave local devices. Only
model updates are locally computed and shared for aggregation to produce a
global model. While federated learning greatly alleviates the privacy concerns
as opposed to learning with centralized data, sharing model updates still poses
privacy risks. In this paper, we present a system design which offers efficient
protection of individual model updates throughout the learning procedure,
allowing clients to only provide obscured model updates while a cloud server
can still perform the aggregation. Our federated learning system first departs
from prior works by supporting lightweight encryption and aggregation, and
resilience against drop-out clients with no impact on their participation in
future rounds. Meanwhile, prior work largely overlooks bandwidth efficiency
optimization in the ciphertext domain and the support of security against an
actively adversarial cloud server, which we also fully explore in this paper
and provide effective and efficient mechanisms. Extensive experiments over
several benchmark datasets (MNIST, CIFAR-10, and CelebA) show our system
achieves accuracy comparable to the plaintext baseline, with practical
performance.
- Abstract(参考訳): フェデレーション学習(federated learning)は、さまざまなソースからのリッチデータを活用して高品質なモデルをトレーニングする、というメリットを約束するパラダイムとして最近登場した。
モデル更新のみがローカルに計算され、グローバルモデルを生成するために集約のために共有される。
統合学習は、集中データによる学習とは対照的に、プライバシーの懸念を大幅に緩和するが、共有モデルのアップデートは依然としてプライバシーのリスクを生じさせる。
本稿では,学習手順全体を通じて個々のモデル更新を効率よく保護し,クラウドサーバがアグリゲーションを実行している間に,クライアントが不明瞭なモデル更新しか提供できないシステム設計を提案する。
当社のフェデレーション学習システムは、まず、ライトウェイトな暗号化とアグリゲーションをサポートし、将来のラウンドへの参加に影響を与えることなく、ドロップアウトクライアントに対するレジリエンスによって、以前の作業から離れます。
一方,先行研究では,暗号文領域における帯域幅効率の最適化や,積極的な敵対的クラウドサーバに対するセキュリティサポートを見落としている。
複数のベンチマークデータセット(MNIST, CIFAR-10, CelebA)に対する大規模な実験により,本システムは平文ベースラインに匹敵する精度を実現し, 実用的な性能を示した。
関連論文リスト
- Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Federated Generative Learning with Foundation Models [7.557587776081281]
本稿では,クライアントとサーバ間の分散トレーニングデータに関連するプロンプトを伝達する,新しいフェデレーション学習フレームワークであるフェデレーション生成学習を提案する。
情報的トレーニングデータは、プライバシーと基礎生成モデルを含む受信したプロンプトに基づいて遠隔で合成することができる。
新しいフレームワークには、通信効率の向上、分散移行に対するレジリエンスの向上、大幅なパフォーマンス向上、プライバシー保護の強化など、さまざまなメリットがある。
論文 参考訳(メタデータ) (2023-06-28T09:52:36Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FedGEMS: Federated Learning of Larger Server Models via Selective
Knowledge Fusion [19.86388925556209]
フェデレートラーニング(FL)は、データをプライベートに保ちながらグローバルモデルを学ぶための実行可能なソリューションとして登場した。
本研究では,FLのモデル容量を突破する強力なサーバモデルを活用するための新しいパラダイムについて検討する。
論文 参考訳(メタデータ) (2021-10-21T10:06:44Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Byzantine-robust Federated Learning through Spatial-temporal Analysis of
Local Model Updates [6.758334200305236]
フェデレートラーニング(FL)は、複数の分散クライアント(モバイルデバイスなど)が、クライアントにローカルにトレーニングデータを保持しながら、協調的に集中的なモデルをトレーニングすることを可能にする。
本稿では,これらの障害と攻撃を空間的・時間的観点から緩和することを提案する。
具体的には、パラメータ空間におけるそれらの幾何学的性質を活用することにより、不正な更新を検出し、排除するためにクラスタリングに基づく手法を用いる。
論文 参考訳(メタデータ) (2021-07-03T18:48:11Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。