論文の概要: Sensitivity, Specificity, and Consistency: A Tripartite Evaluation of Privacy Filters for Synthetic Data Generation
- arxiv url: http://arxiv.org/abs/2510.01793v1
- Date: Thu, 02 Oct 2025 08:32:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.057526
- Title: Sensitivity, Specificity, and Consistency: A Tripartite Evaluation of Privacy Filters for Synthetic Data Generation
- Title(参考訳): 感度, 特異性, 一貫性: 合成データ生成のためのプライバシーフィルタの3部評価
- Authors: Adil Koeken, Alexander Ziller, Moritz Knolle, Daniel Rueckert,
- Abstract要約: 個人識別可能な情報を含むサンプルを除去するためのポストホックプライバシーフィルタリング技術が提案されている。
本研究は胸部X線合成に適用した濾過パイプラインの厳密な評価を行う。
これらの手法がセンシティブなアプリケーションに確実にデプロイされるためには,フィルタ設計の大幅な進歩が必要であると結論付けている。
- 参考スコア(独自算出の注目度): 57.13635002340272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The generation of privacy-preserving synthetic datasets is a promising avenue for overcoming data scarcity in medical AI research. Post-hoc privacy filtering techniques, designed to remove samples containing personally identifiable information, have recently been proposed as a solution. However, their effectiveness remains largely unverified. This work presents a rigorous evaluation of a filtering pipeline applied to chest X-ray synthesis. Contrary to claims from the original publications, our results demonstrate that current filters exhibit limited specificity and consistency, achieving high sensitivity only for real images while failing to reliably detect near-duplicates generated from training data. These results demonstrate a critical limitation of post-hoc filtering: rather than effectively safeguarding patient privacy, these methods may provide a false sense of security while leaving unacceptable levels of patient information exposed. We conclude that substantial advances in filter design are needed before these methods can be confidently deployed in sensitive applications.
- Abstract(参考訳): プライバシを保存する合成データセットの生成は、医療AI研究におけるデータの不足を克服するための有望な道である。
個人識別可能な情報を含むサンプルを除去するために設計されたポストホックプライバシーフィルタリング技術は、最近ソリューションとして提案されている。
しかし、その効果はほとんど検証されていない。
本研究は胸部X線合成に適用した濾過パイプラインの厳密な評価を行う。
原論文の主張とは対照的に,本研究の結果は,現在のフィルタの特異性や一貫性に限界があり,実際の画像に対してのみ高い感度を達成できると同時に,トレーニングデータから生成した近距離倍率を確実に検出できないことを示した。
これらの方法は、患者のプライバシーを効果的に保護する代わりに、受け入れ難いレベルの患者情報を公開しながら、セキュリティの誤った感覚を与える可能性がある。
これらの手法がセンシティブなアプリケーションに確実にデプロイされるためには,フィルタ設計の大幅な進歩が必要であると結論付けている。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - Enhancing the Utility of Privacy-Preserving Cancer Classification using Synthetic Data [5.448470199971472]
深層学習は、乳がん検出において放射線科医を補助する大きな可能性を秘めている。
最適なモデルパフォーマンスを達成することは、データの可用性と共有の制限によって妨げられます。
従来のディープラーニングモデルでは、センシティブなトレーニング情報を不注意にリークすることができる。
この研究は、プライバシー保護のディープラーニング技術の有用性の定量化を探求するこれらの課題に対処する。
論文 参考訳(メタデータ) (2024-07-17T15:52:45Z) - Defining 'Good': Evaluation Framework for Synthetic Smart Meter Data [14.779917834583577]
スマートメーターデータセットのプライバシーリスクを評価するには,標準プライバシ攻撃手法が不十分であることを示す。
本稿では,トレーニングデータを不確実なアウトレーラで注入し,それらのアウトレーラに直接プライバシ攻撃を発生させる手法を提案する。
論文 参考訳(メタデータ) (2024-07-16T14:41:27Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Decouple-and-Sample: Protecting sensitive information in task agnostic
data release [17.398889291769986]
sanitizerはセキュアでタスクに依存しないデータリリースのためのフレームワークである。
機密情報をプライベートに合成できれば、より優れたプライバシーとユーティリティのトレードオフが達成できることを示す。
論文 参考訳(メタデータ) (2022-03-17T19:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。