論文の概要: Beyond Data Splitting: Full-Data Conformal Prediction by Differential Privacy
- arxiv url: http://arxiv.org/abs/2603.07522v1
- Date: Sun, 08 Mar 2026 08:25:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.711564
- Title: Beyond Data Splitting: Full-Data Conformal Prediction by Differential Privacy
- Title(参考訳): データ分割を超えて - 差分プライバシーによる全データコンフォーマル予測
- Authors: Young Hyun Cho, Jordan Awan,
- Abstract要約: 既存のプライベートアプローチは、しばしばデータ分割に依存し、効果的なサンプルサイズを減らす。
分割を回避した完全データのプライバシ保存型コンフォメーション予測フレームワークを提案する。
一般的な差分プライバシー保証は、普遍的なカバレッジフロアをもたらすが、一般的には1ドルから1ドル程度のレベルを回復することはできない。
- 参考スコア(独自算出の注目度): 5.19945480121051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy protection and uncertainty quantification are increasingly important in data-driven decision making. Conformal prediction provides finite-sample marginal coverage, but existing private approaches often rely on data splitting, reducing the effective sample size. We propose a full-data privacy-preserving conformal prediction framework that avoids splitting. Our framework leverages stability induced by differential privacy to control the gap between in-sample and out-of-sample conformal scores, and pairs this with a conservative private quantile routine designed to prevent under-coverage. We show that a generic differential privacy guarantee yields a universal coverage floor, yet cannot generally recover the nominal $1-α$ level. We then provide a refined, mechanism-specific stability analysis and yields asymptotic recovery of the nominal level. Experiments demonstrate sharper prediction sets than the split-based private baseline.
- Abstract(参考訳): プライバシ保護と不確実性定量化は、データ駆動意思決定においてますます重要になっている。
コンフォーマル予測は有限サンプルの限界カバレッジを提供するが、既存のプライベートアプローチはデータ分割に依存しており、有効なサンプルサイズを減少させる。
分割を回避した完全データのプライバシ保存型コンフォメーション予測フレームワークを提案する。
我々のフレームワークは、差分プライバシーによって引き起こされる安定性を活用して、サンプル内とサンプル外コンフォメーションスコアのギャップを制御し、アンダーカバーを防ぐために設計された保守的なプライベート量子化ルーチンと組み合わせる。
一般的な差分プライバシー保証は、普遍的なカバレッジフロアをもたらすが、一般的に1-α$という名目上のレベルを回復することはできない。
次に, 改良された機構特異的な安定性解析を行い, 名目レベルの漸近的回復をもたらす。
実験では、分割ベースのプライベートベースラインよりも、よりシャープな予測セットが示される。
関連論文リスト
- Differentially Private Covariate Balancing Causal Inference [8.133739801185271]
差分プライバシーは、プライバシー保護のための主要な数学的枠組みである。
我々のアルゴリズムは、所定のプライバシー予算の下で、整合性やレート最適性などの統計的保証のある点推定と区間推定の両方を生成する。
論文 参考訳(メタデータ) (2024-10-18T18:02:13Z) - Optimal Federated Learning for Nonparametric Regression with Heterogeneous Distributed Differential Privacy Constraints [5.3595271893779906]
本研究では,異なるサーバにまたがる分散サンプルのコンテキストにおける非パラメトリック回帰のためのフェデレーション学習について検討した。
統計の正確さとプライバシーの保護のトレードオフに光を当てている。
論文 参考訳(メタデータ) (2024-06-10T19:34:07Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。