論文の概要: DP-REC: Private & Communication-Efficient Federated Learning
- arxiv url: http://arxiv.org/abs/2111.05454v1
- Date: Tue, 9 Nov 2021 23:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 00:00:04.280360
- Title: DP-REC: Private & Communication-Efficient Federated Learning
- Title(参考訳): DP-REC: プライベート&コミュニケーション効率の良いフェデレーションラーニング
- Authors: Aleksei Triastcyn, Matthias Reisser, Christos Louizos
- Abstract要約: 本稿では,Relative Entropy Coding (REC) に基づく圧縮手法を提案する。
RECに小さな修正を加えて、証明可能な差分学習アルゴリズムDP-RECを取得し、そのプライバシー保証の計算方法を示す。
実験の結果,DP-RECは通信コストを大幅に削減し,プライバシー保証は最先端技術に匹敵することがわかった。
- 参考スコア(独自算出の注目度): 16.884416092951007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy and communication efficiency are important challenges in federated
training of neural networks, and combining them is still an open problem. In
this work, we develop a method that unifies highly compressed communication and
differential privacy (DP). We introduce a compression technique based on
Relative Entropy Coding (REC) to the federated setting. With a minor
modification to REC, we obtain a provably differentially private learning
algorithm, DP-REC, and show how to compute its privacy guarantees. Our
experiments demonstrate that DP-REC drastically reduces communication costs
while providing privacy guarantees comparable to the state-of-the-art.
- Abstract(参考訳): ニューラルネットワークのフェデレーショントレーニングにおいて、プライバシと通信効率は重要な課題であり、それらを組み合わせることは依然としてオープンな問題である。
本研究では,高度に圧縮された通信と差分プライバシー(DP)を統一する手法を開発する。
フェデレーション設定に対する相対エントロピー符号化(rec)に基づく圧縮手法を提案する。
RECに小さな修正を加えて、証明可能な差分学習アルゴリズムDP-RECを取得し、そのプライバシー保証の計算方法を示す。
実験の結果,DP-RECは通信コストを大幅に削減し,プライバシー保証は最先端技術に匹敵することがわかった。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Private and Communication-Efficient Federated Learning based on Differentially Private Sketches [0.4533408985664949]
フェデレーテッド・ラーニング(FL)は、プライバシー漏洩のリスクとコミュニケーションの非効率の2つの主な課題に直面している。
そこで我々は,差分プライベートスケッチを利用したフェデレーション学習手法であるDPSFLを提案する。
提案手法のプライバシーと収束に関する理論的解析を行う。
論文 参考訳(メタデータ) (2024-10-08T06:50:41Z) - Federated Cubic Regularized Newton Learning with Sparsification-amplified Differential Privacy [10.396575601912673]
そこで我々は,DP-FCRN (differially Private Federated Cubic Regularized Newton) というフェデレーション学習アルゴリズムを導入する。
2次手法を活用することにより,本アルゴリズムは1次手法に比べてイテレーションの複雑さを小さくする。
また、プライバシーを確保するために、局所的な計算中にノイズの摂動も取り入れる。
論文 参考訳(メタデータ) (2024-08-08T08:48:54Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy-Aware Joint Source-Channel Coding for image transmission based on Disentangled Information Bottleneck [27.929075969353764]
現在のプライバシを意識したジョイントソースチャネル符号化(JSCC)は、J SCCエンコーダとデコーダを敵対的に訓練することで、プライベート情報伝送を回避することを目的としている。
不整合情報ボトルネック(DIB-PAJSCC)に基づく新しいプライバシ対応J SCCを提案する。
また,DIB-PAJSCCは,従来の手法と比較して,プライベート情報の盗聴精度を最大20%低減できることを示した。
論文 参考訳(メタデータ) (2023-09-15T06:34:22Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - SoteriaFL: A Unified Framework for Private Federated Learning with
Communication Compression [40.646108010388986]
本稿では,コミュニケーション圧縮によるプライベート・フェデレーション学習のコミュニケーション効率を向上させる統一フレームワークを提案する。
プライバシ、ユーティリティ、通信の複雑さの観点から、パフォーマンストレードオフを包括的に評価する。
論文 参考訳(メタデータ) (2022-06-20T16:47:58Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。