論文の概要: SoK: Enhancing Cryptographic Collaborative Learning with Differential Privacy
- arxiv url: http://arxiv.org/abs/2601.09460v1
- Date: Wed, 14 Jan 2026 13:09:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.408043
- Title: SoK: Enhancing Cryptographic Collaborative Learning with Differential Privacy
- Title(参考訳): SoK: 差分プライバシによる暗号化コラボレーション学習の強化
- Authors: Francesco Capano, Jonas Böhler, Benjamin Weggenmann,
- Abstract要約: 共同学習(CL)では、複数のパーティがプライベートデータセット上で機械学習モデルを共同でトレーニングする。
セキュアにトレーニングされたモデルでさえ、モデル出力から記憶されたデータを抽出することを目的とした推論攻撃に対して脆弱である。
出力プライバシーを確保し、推論攻撃を軽減するため、差分プライバシー(DP)はトレーニング中に校正ノイズを注入する。
- 参考スコア(独自算出の注目度): 2.6457630272965074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In collaborative learning (CL), multiple parties jointly train a machine learning model on their private datasets. However, data can not be shared directly due to privacy concerns. To ensure input confidentiality, cryptographic techniques, e.g., multi-party computation (MPC), enable training on encrypted data. Yet, even securely trained models are vulnerable to inference attacks aiming to extract memorized data from model outputs. To ensure output privacy and mitigate inference attacks, differential privacy (DP) injects calibrated noise during training. While cryptography and DP offer complementary guarantees, combining them efficiently for cryptographic and differentially private CL (CPCL) is challenging. Cryptography incurs performance overheads, while DP degrades accuracy, creating a privacy-accuracy-performance trade-off that needs careful design considerations. This work systematizes the CPCL landscape. We introduce a unified framework that generalizes common phases across CPCL paradigms, and identify secure noise sampling as the foundational phase to achieve CPCL. We analyze trade-offs of different secure noise sampling techniques, noise types, and DP mechanisms discussing their implementation challenges and evaluating their accuracy and cryptographic overhead across CPCL paradigms. Additionally, we implement identified secure noise sampling options in MPC and evaluate their computation and communication costs in WAN and LAN. Finally, we propose future research directions based on identified key observations, gaps and possible enhancements in the literature.
- Abstract(参考訳): 共同学習(CL)では、複数のパーティがプライベートデータセット上で機械学習モデルを共同でトレーニングする。
しかし、プライバシー上の懸念からデータを直接共有することはできない。
入力機密性を確保するため、暗号化技術、例えばマルチパーティ計算(MPC)は暗号化データのトレーニングを可能にする。
しかし、セキュアに訓練されたモデルでさえ、モデル出力から記憶されたデータを抽出することを目的とした推論攻撃に対して脆弱である。
出力プライバシーを確保し、推論攻撃を軽減するため、差分プライバシー(DP)はトレーニング中に校正ノイズを注入する。
暗号とDPは相補的な保証を提供するが、暗号と微分プライベートCL(CPCL)を効率的に組み合わせることは困難である。
暗号は性能上のオーバーヘッドを発生させ、DPは精度を低下させ、慎重に設計の考慮を必要とするプライバシーと精度と性能のトレードオフを生み出す。
この作業はCPCLのランドスケープを体系化する。
CPCLパラダイムの共通位相を一般化する統合フレームワークを導入し、CPCLを実現するための基本位相としてセキュアノイズサンプリングを同定する。
我々は,CPCLパラダイムにおける実装課題を論じ,その正確さと暗号オーバーヘッドを評価するために,異なる安全なノイズサンプリング手法,ノイズタイプ,DPメカニズムのトレードオフを分析した。
さらに, MPC にセキュアなノイズサンプリングオプションを実装し, WAN と LAN の計算・通信コストを評価する。
最後に,本論文の重要点,ギャップ,拡張可能性に基づく今後の研究方向性を提案する。
関連論文リスト
- A Privacy-Preserving Federated Learning Method with Homomorphic Encryption in Omics Data [19.04813252998036]
ホモモルフィック暗号化(HE)は、暗号化されたデータの計算を可能にし、DP誘起ノイズなしで暗号化された勾配の集約を可能にする。
HEを導入し,プライバシ保存機械学習(PPML)-Hybrid法を提案する。
提案手法は,HEのみと比較して計算時間を大幅に削減しながら,同等の予測精度を実現する。
論文 参考訳(メタデータ) (2025-11-08T16:18:42Z) - Conformal Prediction for Privacy-Preserving Machine Learning [83.88591755871734]
AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
論文 参考訳(メタデータ) (2025-07-13T15:29:14Z) - Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Safeguarding Data in Multimodal AI: A Differentially Private Approach to
CLIP Training [15.928338716118697]
本稿では,コントラスト言語-画像事前学習(CLIP)モデルの個人適応について紹介する。
提案手法であるDp-CLIPをベンチマークデータを用いて厳密に評価する。
論文 参考訳(メタデータ) (2023-06-13T23:32:09Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。