論文の概要: Challenges in Enabling Private Data Valuation
- arxiv url: http://arxiv.org/abs/2603.00342v1
- Date: Fri, 27 Feb 2026 22:21:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.148918
- Title: Challenges in Enabling Private Data Valuation
- Title(参考訳): プライベートデータ評価の実現における課題
- Authors: Yiwei Fu, Tianhao Wang, Varun Chandrasekaran,
- Abstract要約: データアセスメント手法は、個々のトレーニング例がモデルの振る舞いにどのように貢献するかを定量化する。
評価スコアは、個人のデータがトレーニングに含まれていたか、異常な影響があったか、あるいはプロプライエタリなデータセットにどのような機密パターンが存在するかを明らかにすることができる。
プライバシーは基本的に、差分プライバシー(DP)の下でのバリュエーションユーティリティーと緊張関係にある
- 参考スコア(独自算出の注目度): 17.450381366291754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data valuation methods quantify how individual training examples contribute to a model's behavior, and are increasingly used for dataset curation, auditing, and emerging data markets. As these techniques become operational, they raise serious privacy concerns: valuation scores can reveal whether a person's data was included in training, whether it was unusually influential, or what sensitive patterns exist in proprietary datasets. This motivates the study of privacy-preserving data valuation. However, privacy is fundamentally in tension with valuation utility under differential privacy (DP). DP requires outputs to be insensitive to any single record, while valuation methods are explicitly designed to measure per-record influence. As a result, naive privatization often destroys the fine-grained distinctions needed to rank or attribute value, particularly in heterogeneous datasets where rare examples exert outsized effects. In this work, we analyze the feasibility of DP-compatible data valuation. We identify the core algorithmic primitives across common valuation frameworks that induce prohibitive sensitivity, explaining why straightforward DP mechanisms fail. We further derive design principles for more privacy-amenable valuation procedures and empirically characterize how privacy constraints degrade ranking fidelity across representative methods and datasets. Our results clarify the limits of current approaches and provide a foundation for developing valuation methods that remain useful under rigorous privacy guarantees.
- Abstract(参考訳): データアセスメント手法は、個々のトレーニング例がモデルの振る舞いにどのように貢献するかを定量化し、データセットのキュレーション、監査、新興データマーケットにますます利用されている。
評価スコアは、個人のデータがトレーニングに含まれているかどうか、異常に影響力のあるものなのか、プロプライエタリなデータセットにどのような機密パターンが存在するのかを明らかにすることができる。
これはプライバシー保護データバリュエーションの研究を動機付けている。
しかし、プライバシーは基本的に、差分プライバシー(DP)の下でのバリュエーションユーティリティと緊張関係にある。
DPは出力を任意の単一レコードに非感受性でなければならないが、評価手法は記録ごとの影響を測定するために明示的に設計されている。
結果として、ナイーブな民営化はしばしば価値のランク付けや属性付けに必要な微妙な区別を損なう。
本研究では,DP互換データ評価の実現可能性について検討する。
提案手法は,DP機構がなぜ失敗するのかを解説し,不当な感度を誘発する,一般的な評価フレームワークのコアアルゴリズムプリミティブを同定する。
さらに、よりプライバシーに配慮可能な評価手順の設計原則を導き、プライバシ制約が代表的メソッドやデータセットのランクフィリティを低下させる方法を実証的に特徴付けます。
本研究は, 厳格なプライバシー保証の下で有効な評価手法開発のための基盤として, 現状のアプローチの限界を明らかにした。
関連論文リスト
- PrivATE: Differentially Private Average Treatment Effect Estimation for Observational Data [49.35645194884526]
差分プライバシーを保証する実用的なATE推定フレームワークであるPrivATEを紹介する。
プライバシの異なるプライバシ要件を満たすために、プライバシ保護の2つのレベル(ラベルレベルとサンプルレベル)をPrivATEで設計する。
PrivATEはノイズによるエラーとマッチングエラーを効果的にバランスさせ、ATEをより正確に見積もる。
論文 参考訳(メタデータ) (2025-12-16T16:30:07Z) - PRIVET: Privacy Metric Based on Extreme Value Theory [8.447463478355845]
深層生成モデルは、しばしば、遺伝配列、健康データ、より広範に、著作権、ライセンス、保護されたコンテンツなどの機密データに基づいて訓練される。
これにより、プライバシー保護のための合成データ、より具体的にはプライバシー漏洩に関する重要な懸念が持ち上がる。
本稿では,個別のプライバシリークスコアを合成サンプルに割り当てる,汎用的なサンプルベースモダリティ非依存アルゴリズムPRIVETを提案する。
論文 参考訳(メタデータ) (2025-10-28T09:42:03Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Evaluating Differentially Private Generation of Domain-Specific Text [33.72321050465059]
差分プライバシー保証の下で生成されたテキストデータセットの有用性と忠実度を体系的に評価するための統一ベンチマークを導入する。
ドメイン固有の5つのデータセットにまたがって、最先端のプライバシ保存手法を評価する。
論文 参考訳(メタデータ) (2025-08-28T05:57:47Z) - Benchmarking Fraud Detectors on Private Graph Data [70.4654745317714]
現在、多くの種類の不正は、グラフ上で動く自動検出アルゴリズムによって部分的に管理されている。
データ保有者が不正検知器の開発を第三者にアウトソースしようとするシナリオを考察する。
サードパーティは、不正検出をデータ保持者に送信し、これらのアルゴリズムをプライベートデータセットで評価し、その結果を公表する。
本システムに対する現実的なプライバシ攻撃を提案し,評価結果のみに基づいて個人データの匿名化を可能にする。
論文 参考訳(メタデータ) (2025-07-30T03:20:15Z) - A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。