論文の概要: Conformal Prediction for Privacy-Preserving Machine Learning
- arxiv url: http://arxiv.org/abs/2507.09678v1
- Date: Sun, 13 Jul 2025 15:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.753404
- Title: Conformal Prediction for Privacy-Preserving Machine Learning
- Title(参考訳): プライバシー保護機械学習のコンフォーマル予測
- Authors: Alexander David Balinsky, Dominik Krzeminski, Alexander Balinsky,
- Abstract要約: AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
- 参考スコア(独自算出の注目度): 83.88591755871734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the integration of Conformal Prediction (CP) with supervised learning on deterministically encrypted data, aiming to bridge the gap between rigorous uncertainty quantification and privacy-preserving machine learning. Using AES-encrypted variants of the MNIST dataset, we demonstrate that CP methods remain effective even when applied directly in the encrypted domain, owing to the preservation of data exchangeability under fixed-key encryption. We test traditional $p$-value-based against $e$-value-based conformal predictors. Our empirical evaluation reveals that models trained on deterministically encrypted data retain the ability to extract meaningful structure, achieving 36.88\% test accuracy -- significantly above random guessing (9.56\%) observed with per-instance encryption. Moreover, $e$-value-based CP achieves predictive set coverage of over 60\% with 4.3 loss-threshold calibration, correctly capturing the true label in 4888 out of 5000 test cases. In contrast, the $p$-value-based CP yields smaller predictive sets but with reduced coverage accuracy. These findings highlight both the promise and limitations of CP in encrypted data settings and underscore critical trade-offs between prediction set compactness and reliability. %Our work sets a foundation for principled uncertainty quantification in secure, privacy-aware learning systems.
- Abstract(参考訳): 本稿では,厳密な不確実性定量化とプライバシ保護機械学習のギャップを埋めることを目的として,CP(Conformal Prediction)と決定的に暗号化されたデータの教師あり学習の統合について検討する。
AESで暗号化されたMNISTデータセットの変種を用いて、固定鍵暗号の下でのデータ交換性を保存するため、暗号化ドメインに直接適用してもCP手法は有効であることを示す。
従来の$p$-value-basedに対して、$e$-value-based conformal predictorをテストする。
我々の経験的評価によると、決定論的に暗号化されたデータに基づいてトレーニングされたモデルは、意味のある構造を抽出する能力を保持しており、36.88\%のテスト精度は、インスタンスごとの暗号化で観測されたランダムな推測(9.56\%)よりもはるかに高い。
さらに、$e$-value-based CPは4.3の損失閾値キャリブレーションで60\%以上の予測セットを達成し、5000のテストケースのうち4888で真のラベルを正しく取得する。
対照的に、$p$-value-based CP はより小さな予測セットを得るが、カバレッジの精度は低下する。
これらの結果は、暗号化されたデータ設定におけるCPの約束と限界、および予測セットのコンパクト性と信頼性の間の重要なトレードオフを浮き彫りにしている。
%我々の仕事は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
関連論文リスト
- $(ε, δ)$-Differentially Private Partial Least Squares Regression [1.8666451604540077]
我々は,モデルに基づくデータのプライバシーを確保するために,$(epsilon, delta)$-differentially private PLS (edPLS)アルゴリズムを提案する。
実験により、EDPLSはトレーニングデータに固有の変動源を回復することを目的とした、効果的なプライバシー攻撃を施すことが示されている。
論文 参考訳(メタデータ) (2024-12-12T10:49:55Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Provably Robust Conformal Prediction with Improved Efficiency [29.70455766394585]
コンフォーマル予測は、保証されたカバレッジで不確実性セットを生成する強力なツールである。
逆の例は、不正なカバレッジ率の予測セットを構築するために共形メソッドを操作することができる。
本稿では,PTT(Post-Training Transformation)とRCT(Robust Conformal Training)という2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:49:01Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。