論文の概要: Federated $f$-Differential Privacy
- arxiv url: http://arxiv.org/abs/2102.11158v1
- Date: Mon, 22 Feb 2021 16:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:09:14.237829
- Title: Federated $f$-Differential Privacy
- Title(参考訳): Federated $f$-differential Privacy
- Authors: Qinqing Zheng, Shuxiao Chen, Qi Long, Weijie J. Su
- Abstract要約: フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
- 参考スコア(独自算出の注目度): 19.499120576896228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a training paradigm where the clients
collaboratively learn models by repeatedly sharing information without
compromising much on the privacy of their local sensitive data. In this paper,
we introduce federated $f$-differential privacy, a new notion specifically
tailored to the federated setting, based on the framework of Gaussian
differential privacy. Federated $f$-differential privacy operates on record
level: it provides the privacy guarantee on each individual record of one
client's data against adversaries. We then propose a generic private federated
learning framework {PriFedSync} that accommodates a large family of
state-of-the-art FL algorithms, which provably achieves federated
$f$-differential privacy. Finally, we empirically demonstrate the trade-off
between privacy guarantee and prediction performance for models trained by
{PriFedSync} in computer vision tasks.
- Abstract(参考訳): Federated Learning (FL) は、クライアントがローカルな機密データのプライバシーを犠牲にすることなく、情報を繰り返し共有することによって、モデルを共同学習するトレーニングパラダイムです。
この論文では、ガウス微分プライバシーの枠組みに基づいて、フェデレーション設定に特化した新しい概念であるフェデレーション$f$-差分プライバシーを紹介します。
フェデレーションされた$f$-差分プライバシーは、レコードレベルで動作します:それは、敵対するクライアントのデータの各個々のレコードのプライバシー保証を提供します。
そこで我々は,最先端のflアルゴリズム群を包含する汎用的federated learning framework {prifedsync} を提案し,federated $f$-differential privacy を実現する。
最後に、コンピュータビジョンタスクで{PriFedSync}によって訓練されたモデルのプライバシー保証と予測パフォーマンスのトレードオフを実証します。
関連論文リスト
- Differentially Private Federated Learning: A Systematic Review [35.13641504685795]
本稿では,様々な差分プライバシモデルとシナリオの定義と保証に基づく,差分私的フェデレーション学習の新しい分類法を提案する。
本研究は,プライバシ保護フェデレーション学習に関する貴重な知見を提供し,今後の研究に向けた実践的方向性を提案する。
論文 参考訳(メタデータ) (2024-05-14T03:49:14Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Clients Collaborate: Flexible Differentially Private Federated Learning
with Guaranteed Improvement of Utility-Privacy Trade-off [34.2117116062642]
我々は、モデルユーティリティとユーザプライバシのトレードオフを打つために、厳格なプライバシ保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介します。
グローバルなセマンティック空間を円滑にすることで,フェデCEOが破壊されたセマンティック情報を効果的に回復できることを示す。
異なるプライバシ設定の下で、大幅なパフォーマンス改善と厳格なプライバシ保証を観察する。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Shuffled Differentially Private Federated Learning for Time Series Data
Analytics [10.198481976376717]
時系列データのためのプライバシー保護フェデレーション学習アルゴリズムを開発した。
具体的には、クライアントにプライバシ保護信頼境界を拡張するために、ローカルな差分プライバシーを使用します。
また、局所的な差分プライバシーを活用することによって生じる精度低下を軽減し、プライバシーの増幅を実現するためのシャッフル手法も取り入れた。
論文 参考訳(メタデータ) (2023-07-30T10:30:38Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - FedCG: Leverage Conditional GAN for Protecting Privacy and Maintaining Competitive Performance in Federated Learning [11.852346300577494]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協調して機械学習モデルを構築することを可能にすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報が勾配に基づくプライバシー攻撃の対象であることが示されている。
我々は,条件付き生成対向ネットワークを利用して高レベルのプライバシ保護を実現する新しいフェデレーション学習手法である$textscFedCG$を提案する。
論文 参考訳(メタデータ) (2021-11-16T03:20:37Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。