論文の概要: Privacy-Preserving Conformal Prediction Under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2505.15721v1
- Date: Wed, 21 May 2025 16:29:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.777197
- Title: Privacy-Preserving Conformal Prediction Under Local Differential Privacy
- Title(参考訳): 局所差分プライバシー下におけるプライバシー保護コンフォーマル予測
- Authors: Coby Penso, Bar Mahpud, Jacob Goldberger, Or Sheffet,
- Abstract要約: 局所微分プライバシー(LDP)に基づく2つの相補的アプローチを提案する。
最初のアプローチでは、ユーザーはモデルにアクセスするのではなく、k-aryランダム化応答を使用して入力機能と摂動ラベルを提供する。
厳格なプライバシー制約を強制する第2のアプローチでは、ユーザはバイナリ検索応答によって適合度スコアにノイズを加える。
- 参考スコア(独自算出の注目度): 19.02072419946821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conformal prediction (CP) provides sets of candidate classes with a guaranteed probability of containing the true class. However, it typically relies on a calibration set with clean labels. We address privacy-sensitive scenarios where the aggregator is untrusted and can only access a perturbed version of the true labels. We propose two complementary approaches under local differential privacy (LDP). In the first approach, users do not access the model but instead provide their input features and a perturbed label using a k-ary randomized response. In the second approach, which enforces stricter privacy constraints, users add noise to their conformity score by binary search response. This method requires access to the classification model but preserves both data and label privacy. Both approaches compute the conformal threshold directly from noisy data without accessing the true labels. We prove finite-sample coverage guarantees and demonstrate robust coverage even under severe randomization. This approach unifies strong local privacy with predictive uncertainty control, making it well-suited for sensitive applications such as medical imaging or large language model queries, regardless of whether users can (or are willing to) compute their own scores.
- Abstract(参考訳): コンフォーマル予測(CP)は、真クラスを含む確率が保証された候補クラスの集合を提供する。
しかし、通常はクリーンなラベルを持つキャリブレーションセットに依存している。
我々は、アグリゲータが信頼されず、真のラベルの混乱したバージョンにしかアクセスできないプライバシーに敏感なシナリオに対処する。
本稿では,局所微分プライバシー(LDP)に基づく2つの補完的アプローチを提案する。
最初のアプローチでは、ユーザーはモデルにアクセスするのではなく、k-aryランダム化応答を使用して入力機能と摂動ラベルを提供する。
厳格なプライバシー制約を強制する第2のアプローチでは、ユーザはバイナリ検索応答によって適合度スコアにノイズを加える。
この方法は分類モデルへのアクセスを必要とするが、データとラベルのプライバシの両方を保持する。
どちらのアプローチも、真のラベルにアクセスすることなく、ノイズの多いデータから直接共形しきい値を計算する。
我々は,厳密なランダム化の下でも,有限サンプルカバレッジの保証を証明し,堅牢なカバレッジを示す。
このアプローチは、強力なローカルプライバシと予測的不確実性制御を統一することにより、ユーザが自身のスコアを計算できる(あるいは望んでいない)かどうかに関わらず、医療画像や大規模言語モデルクエリといったセンシティブなアプリケーションに適している。
関連論文リスト
- Estimating the Conformal Prediction Threshold from Noisy Labels [22.841631892273547]
雑音ラベル付きデータに基づいて、ノイズのない共形閾値を推定する方法を示す。
我々は、ノイズ・アウェア・コンフォーマル・予測(NACP)のアプローチを検証し、いくつかの自然・医療画像分類データセットについて示す。
論文 参考訳(メタデータ) (2025-01-22T09:35:58Z) - Conformal Prediction Sets with Improved Conditional Coverage using Trust Scores [52.92618442300405]
有限サンプルにおいて、正確に分布のない条件付きカバレッジを達成することは不可能である。
本稿では,最も重要となる範囲を対象とするコンフォメーション予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-17T12:01:56Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Robust Yet Efficient Conformal Prediction Sets [53.78604391939934]
コンフォーマル予測(CP)は、任意のモデルの出力を真のラベルを含むことが保証された予測セットに変換することができる。
整合性スコアの最悪のケース変化をバウンドすることで、証明可能なロバストな集合を導出する。
論文 参考訳(メタデータ) (2024-07-12T10:59:44Z) - On Rate-Optimal Partitioning Classification from Observable and from
Privatised Data [0.0]
分割分類の古典的手法を再検討し, 緩和条件下での収束率について検討する。
プライバシー制約は、データ$(X_i$), dots,(X_n,Y_n)$を直接観察できないことを意味する。
特徴ベクトル$X_i$とラベル$Y_i$のすべての可能な位置の停止にLaplace分散ノイズを付加する。
論文 参考訳(メタデータ) (2023-12-22T18:07:18Z) - PAC Prediction Sets Under Label Shift [52.30074177997787]
予測セットは、個々のラベルではなくラベルのセットを予測することによって不確実性を捉える。
ラベルシフト設定においてPAC保証付き予測セットを構築するための新しいアルゴリズムを提案する。
提案手法を5つのデータセットで評価する。
論文 参考訳(メタデータ) (2023-10-19T17:57:57Z) - Gaussian Processes with Differential Privacy [3.934224774675743]
我々は、差分プライバシー(DP)を介して、ガウス過程(GP)に強力なプライバシー保護を加える。
我々は、スパースGP手法を用いて、既知の誘導点に関するプライベートな変分近似を公開することによってこれを達成した。
我々の実験は、十分な量のデータがあれば、強力なプライバシー保護下で正確なモデルを生成することができることを示した。
論文 参考訳(メタデータ) (2021-06-01T13:23:16Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。