論文の概要: Privacy Amplification by Missing Data
- arxiv url: http://arxiv.org/abs/2602.01928v2
- Date: Wed, 04 Feb 2026 09:07:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 15:07:33.709891
- Title: Privacy Amplification by Missing Data
- Title(参考訳): データ不足によるプライバシーの増幅
- Authors: Simon Roburin, Rafaël Pinot, Erwan Scornet,
- Abstract要約: 差分プライバシーの枠組みの中で、欠落したデータをプライバシー増幅機構として分析する。
我々は、不完全なデータが、微分プライベートアルゴリズムのプライバシーの増幅をもたらすことを初めて示している。
- 参考スコア(独自算出の注目度): 4.9024539661445825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy preservation is a fundamental requirement in many high-stakes domains such as medicine and finance, where sensitive personal data must be analyzed without compromising individual confidentiality. At the same time, these applications often involve datasets with missing values due to non-response, data corruption, or deliberate anonymization. Missing data is traditionally viewed as a limitation because it reduces the information available to analysts and can degrade model performance. In this work, we take an alternative perspective and study missing data from a privacy preservation standpoint. Intuitively, when features are missing, less information is revealed about individuals, suggesting that missingness could inherently enhance privacy. We formalize this intuition by analyzing missing data as a privacy amplification mechanism within the framework of differential privacy. We show, for the first time, that incomplete data can yield privacy amplification for differentially private algorithms.
- Abstract(参考訳): プライバシ保護は、個人の機密性を損なうことなく、機密性の高い個人情報を分析しなければならない医療や金融などの多くの高額な領域において、基本的な要件である。
同時に、これらのアプリケーションは、非レスポンス、データ破損、または故意の匿名化によって、欠落した値を持つデータセットを伴っていることが多い。
データの欠落は、アナリストが利用可能な情報を減らし、モデルのパフォーマンスを低下させるため、伝統的に制限と見なされている。
本研究では,プライバシ保護の観点から,新たな視点を採り,欠落したデータについて検討する。
直感的には、機能が欠落している場合、個人の情報が少ないため、欠落が本質的にプライバシーを高める可能性がある。
差分プライバシーの枠組みにおけるプライバシー増幅機構として、欠落したデータを解析することにより、この直観を形式化する。
我々は、不完全なデータが、微分プライベートアルゴリズムのプライバシーの増幅をもたらすことを初めて示している。
関連論文リスト
- PrivATE: Differentially Private Average Treatment Effect Estimation for Observational Data [49.35645194884526]
差分プライバシーを保証する実用的なATE推定フレームワークであるPrivATEを紹介する。
プライバシの異なるプライバシ要件を満たすために、プライバシ保護の2つのレベル(ラベルレベルとサンプルレベル)をPrivATEで設計する。
PrivATEはノイズによるエラーとマッチングエラーを効果的にバランスさせ、ATEをより正確に見積もる。
論文 参考訳(メタデータ) (2025-12-16T16:30:07Z) - A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - Statistical Privacy [0.0]
本稿では,データベース生成時の分布を敵が把握している状況について考察する。
分布のエントロピーが、プロパティクエリと呼ばれる大規模なクエリのプライバシを如何に保証しているかを詳細に分析する。
論文 参考訳(メタデータ) (2025-01-22T14:13:44Z) - FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。