論文の概要: Conformal Prediction for Privacy-Preserving Machine Learning
- arxiv url: http://arxiv.org/abs/2507.09678v1
- Date: Sun, 13 Jul 2025 15:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.753404
- Title: Conformal Prediction for Privacy-Preserving Machine Learning
- Title(参考訳): プライバシー保護機械学習のコンフォーマル予測
- Authors: Alexander David Balinsky, Dominik Krzeminski, Alexander Balinsky,
- Abstract要約: AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
- 参考スコア(独自算出の注目度): 83.88591755871734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the integration of Conformal Prediction (CP) with supervised learning on deterministically encrypted data, aiming to bridge the gap between rigorous uncertainty quantification and privacy-preserving machine learning. Using AES-encrypted variants of the MNIST dataset, we demonstrate that CP methods remain effective even when applied directly in the encrypted domain, owing to the preservation of data exchangeability under fixed-key encryption. We test traditional $p$-value-based against $e$-value-based conformal predictors. Our empirical evaluation reveals that models trained on deterministically encrypted data retain the ability to extract meaningful structure, achieving 36.88\% test accuracy -- significantly above random guessing (9.56\%) observed with per-instance encryption. Moreover, $e$-value-based CP achieves predictive set coverage of over 60\% with 4.3 loss-threshold calibration, correctly capturing the true label in 4888 out of 5000 test cases. In contrast, the $p$-value-based CP yields smaller predictive sets but with reduced coverage accuracy. These findings highlight both the promise and limitations of CP in encrypted data settings and underscore critical trade-offs between prediction set compactness and reliability. %Our work sets a foundation for principled uncertainty quantification in secure, privacy-aware learning systems.
- Abstract(参考訳): 本稿では,厳密な不確実性定量化とプライバシ保護機械学習のギャップを埋めることを目的として,CP(Conformal Prediction)と決定的に暗号化されたデータの教師あり学習の統合について検討する。
AESで暗号化されたMNISTデータセットの変種を用いて、固定鍵暗号の下でのデータ交換性を保存するため、暗号化ドメインに直接適用してもCP手法は有効であることを示す。
従来の$p$-value-basedに対して、$e$-value-based conformal predictorをテストする。
我々の経験的評価によると、決定論的に暗号化されたデータに基づいてトレーニングされたモデルは、意味のある構造を抽出する能力を保持しており、36.88\%のテスト精度は、インスタンスごとの暗号化で観測されたランダムな推測(9.56\%)よりもはるかに高い。
さらに、$e$-value-based CPは4.3の損失閾値キャリブレーションで60\%以上の予測セットを達成し、5000のテストケースのうち4888で真のラベルを正しく取得する。
対照的に、$p$-value-based CP はより小さな予測セットを得るが、カバレッジの精度は低下する。
これらの結果は、暗号化されたデータ設定におけるCPの約束と限界、および予測セットのコンパクト性と信頼性の間の重要なトレードオフを浮き彫りにしている。
%我々の仕事は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
関連論文リスト
- Differentially Private Conformal Prediction via Quantile Binary Search [0.0]
我々は、P-COQS(Quantile Search)を介してプライベート・コンフォーマルティ(Private Conformity)と呼ぶ一般のDP手法を提案する。
提案手法は,CP のキャリブレーションフェーズにおけるDP量子化の計算に,既存のランダム化二値探索アルゴリズムを適用し,それに伴う予測セットのプライバシを保証する。
我々は,従来の代替手段と比較して,プライバシーノイズ,サンプルサイズ,重要度がアプローチの性能に与える影響について広範な実験を行った。
論文 参考訳(メタデータ) (2025-07-15T22:08:02Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - $(ε, δ)$-Differentially Private Partial Least Squares Regression [1.8666451604540077]
我々は,モデルに基づくデータのプライバシーを確保するために,$(epsilon, delta)$-differentially private PLS (edPLS)アルゴリズムを提案する。
実験により、EDPLSはトレーニングデータに固有の変動源を回復することを目的とした、効果的なプライバシー攻撃を施すことが示されている。
論文 参考訳(メタデータ) (2024-12-12T10:49:55Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Provably Robust Conformal Prediction with Improved Efficiency [29.70455766394585]
コンフォーマル予測は、保証されたカバレッジで不確実性セットを生成する強力なツールである。
逆の例は、不正なカバレッジ率の予測セットを構築するために共形メソッドを操作することができる。
本稿では,PTT(Post-Training Transformation)とRCT(Robust Conformal Training)という2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:49:01Z) - PAC Prediction Sets Under Label Shift [52.30074177997787]
予測セットは、個々のラベルではなくラベルのセットを予測することによって不確実性を捉える。
ラベルシフト設定においてPAC保証付き予測セットを構築するための新しいアルゴリズムを提案する。
提案手法を5つのデータセットで評価する。
論文 参考訳(メタデータ) (2023-10-19T17:57:57Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。