論文の概要: Protecting Data from all Parties: Combining FHE and DP in Federated
Learning
- arxiv url: http://arxiv.org/abs/2205.04330v1
- Date: Mon, 9 May 2022 14:33:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 17:54:59.028144
- Title: Protecting Data from all Parties: Combining FHE and DP in Federated
Learning
- Title(参考訳): フェデレートラーニングにおけるFHEとDPの併用による全政党のデータ保護
- Authors: Arnaud Grivet S\'ebert, Renaud Sirdey, Oana Stan, C\'edric
Gouy-Pailler
- Abstract要約: トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
- 参考スコア(独自算出の注目度): 0.09176056742068812
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper tackles the problem of ensuring training data privacy in a
federated learning context. Relying on Fully Homomorphic Encryption (FHE) and
Differential Privacy (DP), we propose a secure framework addressing an extended
threat model with respect to privacy of the training data. Notably, the
proposed framework protects the privacy of the training data from all
participants, namely the training data owners and an aggregating server. In
details, while homomorphic encryption blinds a semi-honest server at learning
stage, differential privacy protects the data from semi-honest clients
participating in the training process as well as curious end-users with
black-box or white-box access to the trained model. This paper provides with
new theoretical and practical results to enable these techniques to be
effectively combined. In particular, by means of a novel stochastic
quantization operator, we prove differential privacy guarantees in a context
where the noise is quantified and bounded due to the use of homomorphic
encryption. The paper is concluded by experiments which show the practicality
of the entire framework in spite of these interferences in terms of both model
quality (impacted by DP) and computational overheads (impacted by FHE).
- Abstract(参考訳): 本稿では,フェデレートされた学習コンテキストにおけるデータプライバシのトレーニングを確実にする問題に取り組む。
完全準同型暗号(fhe)と差分プライバシー(dp)に依拠して,トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
特に,提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護している。
詳細は、準同型暗号は学習段階で半正真正銘のサーバーをブラインドするが、差分プライバシーはトレーニングプロセスに参加している半正真正銘のクライアントからデータを保護し、訓練されたモデルへのブラックボックスまたはホワイトボックスアクセスを持つ興味深いエンドユーザから保護する。
本稿は,これらの手法を効果的に組み合わせるための新しい理論的,実用的な結果を提供する。
特に、新しい確率量子化演算子を用いて、同相暗号を用いることにより、ノイズが量子化され境界付けられたコンテキストにおいて、差分プライバシー保証を証明する。
本論文は, モデル品質(DP)と計算オーバーヘッド(FHE)の両方の観点から, これらの干渉にもかかわらず, フレームワーク全体の実用性を示す実験によって締めくくられた。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Pencil: Private and Extensible Collaborative Learning without the Non-Colluding Assumption [24.339382371386876]
Pencilは、データプライバシ、モデルのプライバシ、拡張性を複数のデータプロバイダに同時に提供する、共同学習のための最初のプライベートトレーニングフレームワークである。
この設計原則を実現し、厳密なセキュリティとプライバシ分析を行うために、新しい暗号プロトコルをいくつか導入する。
Pencilは10260倍のスループットと2桁の通信速度を実現している。
論文 参考訳(メタデータ) (2024-03-17T10:26:41Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Privacy-Preserving Wavelet Wavelet Neural Network with Fully Homomorphic
Encryption [5.010425616264462]
プライバシ保護機械学習(PPML)は、プライバシ保護と、マシンラーニングモデルの構築に使用されるデータに対するセキュリティの提供を目的としている。
プライバシを保護すると同時に,モデルの効率を損なわないよう,完全同型暗号化ウェーブレットニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-05-26T10:40:31Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - A Privacy-Preserving and Trustable Multi-agent Learning Framework [34.28936739262812]
本稿では,プライバシ保護と信頼性のある分散学習(PT-DL)を提案する。
PT-DLは、エージェントのデータに対する強力なプライバシ保護を保証するために、差分プライバシに依存する、完全に分散化されたフレームワークである。
本論文は,PT-DLが50%の衝突攻撃に対して,悪意のある信頼モデルで高い確率で回復可能であることを示す。
論文 参考訳(メタデータ) (2021-06-02T15:46:27Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。