論文の概要: When approximate design for fast homomorphic computation provides
differential privacy guarantees
- arxiv url: http://arxiv.org/abs/2304.02959v1
- Date: Thu, 6 Apr 2023 09:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 14:38:03.489030
- Title: When approximate design for fast homomorphic computation provides
differential privacy guarantees
- Title(参考訳): 微分プライバシー保証を提供する高速準同型計算の近似設計
- Authors: Arnaud Grivet S\'ebert, Martin Zuber, Oana Stan, Renaud Sirdey,
C\'edric Gouy-Pailler
- Abstract要約: 差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
- 参考スコア(独自算出の注目度): 0.08399688944263842
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While machine learning has become pervasive in as diversified fields as
industry, healthcare, social networks, privacy concerns regarding the training
data have gained a critical importance. In settings where several parties wish
to collaboratively train a common model without jeopardizing their sensitive
data, the need for a private training protocol is particularly stringent and
implies to protect the data against both the model's end-users and the actors
of the training phase. Differential privacy (DP) and cryptographic primitives
are complementary popular countermeasures against privacy attacks. Among these
cryptographic primitives, fully homomorphic encryption (FHE) offers ciphertext
malleability at the cost of time-consuming operations in the homomorphic
domain. In this paper, we design SHIELD, a probabilistic approximation
algorithm for the argmax operator which is both fast when homomorphically
executed and whose inaccuracy is used as a feature to ensure DP guarantees.
Even if SHIELD could have other applications, we here focus on one setting and
seamlessly integrate it in the SPEED collaborative training framework from
"SPEED: Secure, PrivatE, and Efficient Deep learning" (Grivet S\'ebert et al.,
2021) to improve its computational efficiency. After thoroughly describing the
FHE implementation of our algorithm and its DP analysis, we present
experimental results. To the best of our knowledge, it is the first work in
which relaxing the accuracy of an homomorphic calculation is constructively
usable as a degree of freedom to achieve better FHE performances.
- Abstract(参考訳): 機械学習は、産業、医療、ソーシャルネットワークなど多様な分野に広まりつつあるが、トレーニングデータに関するプライバシー上の懸念が重要になっている。
複数の当事者が機密データを危険にさらすことなく共通のモデルを協調的にトレーニングしたい場合、プライベートトレーニングプロトコルの必要性は特に厳しく、モデルのエンドユーザとトレーニングフェーズのアクターの両方に対してデータを保護することを示唆する。
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する補完的な対策である。
これらの暗号プリミティブのうち、完全準同型暗号(fhe)は準同型ドメインにおける時間消費操作のコストで暗号テキストの可算性を提供する。
本稿では,準同型に実行されると高速であり,dp保証を保証する特徴として不正確なargmax演算子の確率近似アルゴリズムであるshieldを設計する。
shieldには別のアプリケーションがあるとしても、ひとつの設定に集中し、"speed: secure, private, and efficient deep learning" (grivet s\'ebert et al., 2021) から高速協調トレーニングフレームワークにシームレスに統合し、計算効率を向上させる。
提案アルゴリズムのFHE実装とそのDP解析について詳しく説明した後,実験結果を示す。
我々の知る限りでは、同型計算の精度を緩めることは、FHE性能を向上させるための自由度として構成的に利用できる最初の作品である。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Practical, Private Assurance of the Value of Collaboration via Fully Homomorphic Encryption [3.929854470352013]
2つのパーティーは、データセットで協力したいと思っています。
一方の当事者は、他方の当事者からのデータを取り入れることで、予測モデルの改善を約束する。
当事者は、更新されたモデルが正確性の向上を示した場合にのみ、さらなる協力を希望する。
論文 参考訳(メタデータ) (2023-10-04T03:47:21Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - Differentially Private Federated Learning on Heterogeneous Data [10.431137628048356]
フェデレートラーニング(Federated Learning、FL)は、大規模分散ラーニングのパラダイムである。
i)高度に異質なユーザデータからの効率的なトレーニング、(ii)参加ユーザのプライバシ保護という2つの大きな課題に直面しています。
本稿では,差分プライバシー(DP)制約を取り入れた新しいFL手法を提案する。
論文 参考訳(メタデータ) (2021-11-17T18:23:49Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。