論文の概要: Holding Secrets Accountable: Auditing Privacy-Preserving Machine Learning
- arxiv url: http://arxiv.org/abs/2402.15780v2
- Date: Mon, 23 Sep 2024 12:04:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 04:32:42.301453
- Title: Holding Secrets Accountable: Auditing Privacy-Preserving Machine Learning
- Title(参考訳): シークレットの責任を負う - プライバシ保護機械学習の監査
- Authors: Hidde Lycklama, Alexander Viand, Nicolas Küchler, Christian Knabenhans, Anwar Hithnawi,
- Abstract要約: プライバシ保護機械学習を監査するためのMPCフレームワークであるArcを紹介した。
我々のフレームワークの中核となるのは、大規模な簡潔なコミットメントに対してMPC入力を効率的に検証するための新しいプロトコルです。
我々は、一貫性プロトコルをインスタンス化する際のフレームワークの性能を評価し、ハッシュベースおよびホモモーフィック・コミットベースのアプローチと比較する。
- 参考スコア(独自算出の注目度): 42.16294591171022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in privacy-preserving machine learning are paving the way to extend the benefits of ML to highly sensitive data that, until now, have been hard to utilize due to privacy concerns and regulatory constraints. Simultaneously, there is a growing emphasis on enhancing the transparency and accountability of machine learning, including the ability to audit ML deployments. While ML auditing and PPML have both been the subjects of intensive research, they have predominately been examined in isolation. However, their combination is becoming increasingly important. In this work, we introduce Arc, an MPC framework for auditing privacy-preserving machine learning. At the core of our framework is a new protocol for efficiently verifying MPC inputs against succinct commitments at scale. We evaluate the performance of our framework when instantiated with our consistency protocol and compare it to hashing-based and homomorphic-commitment-based approaches, demonstrating that it is up to 10^4x faster and up to 10^6x more concise.
- Abstract(参考訳): プライバシー保護機械学習の最近の進歩は、プライバシーの懸念と規制上の制約のためにこれまで利用が困難だった、高度に機密性の高いデータにMLの利点を拡大する道を切り開いている。
同時に、MLデプロイメントの監査機能を含む、マシンラーニングの透明性と説明責任の向上に重点が置かれている。
ML監査とPPMLはどちらも集中的な研究対象であるが、主に単独で検討されている。
しかし、それらの組み合わせはますます重要になっている。
本研究では,プライバシ保護機械学習を監査するためのMPCフレームワークであるArcを紹介する。
我々のフレームワークの中核となるのは、大規模な簡潔なコミットメントに対してMPC入力を効率的に検証するための新しいプロトコルです。
一貫性プロトコルをインスタンス化する際のフレームワークの性能を評価し,これをハッシュベースおよび同型コミットベースのアプローチと比較し,最大10^4倍高速かつ最大10^6倍簡潔であることを示す。
関連論文リスト
- The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - A Pervasive, Efficient and Private Future: Realizing Privacy-Preserving Machine Learning Through Hybrid Homomorphic Encryption [2.434439232485276]
プライバシ保存機械学習(PPML)手法は、MLモデルのプライバシとセキュリティリスクを軽減するために提案されている。
これらの課題を克服するために、対称暗号とHEを組み合わせた現代の暗号方式が導入された。
本研究は,エッジデバイス向けのリソースフレンドリなPPMLプロトコルを提案することにより,HHEをML分野に導入する。
論文 参考訳(メタデータ) (2024-09-10T11:04:14Z) - Wildest Dreams: Reproducible Research in Privacy-preserving Neural
Network Training [2.853180143237022]
この作業は、ユーザデータのプライバシを維持することが最も重要であるMLモデルのトレーニングフェーズに重点を置いている。
我々は、現在のアプローチの理解を容易にする、しっかりとした理論的背景を提供する。
我々は,いくつかの論文の成果を再現し,その分野における既存の研究がオープンサイエンスを支援するレベルについて検討する。
論文 参考訳(メタデータ) (2024-03-06T10:25:36Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - Antipodes of Label Differential Privacy: PATE and ALIBI [2.2761657094500682]
我々は、訓練されたモデルが差分プライバシー(DP)を満たす必要がある、プライバシ保護機械学習(ML)の設定について検討する。
本稿では,Laplace メカニズムと PATE フレームワークに基づく2つの新しいアプローチを提案する。
いくつかの体制において、PATEフレームワークを適応させて、非常に強力なプライバシレベルを達成する方法を示します。
論文 参考訳(メタデータ) (2021-06-07T08:14:32Z) - Machine Learning Force Fields [54.48599172620472]
機械学習(ML)は、計算化学の多くの進歩を可能にした。
最も有望な応用の1つは、MLベースの力場(FF)の構築である。
本稿では,ML-FFの応用と,それらから得られる化学的知見について概説する。
論文 参考訳(メタデータ) (2020-10-14T13:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。