論文の概要: Measuring the Accuracy and Effectiveness of PII Removal Services
- arxiv url: http://arxiv.org/abs/2505.06989v1
- Date: Sun, 11 May 2025 14:32:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.148863
- Title: Measuring the Accuracy and Effectiveness of PII Removal Services
- Title(参考訳): PII除去サービスの精度と有効性の測定
- Authors: Jiahui He, Pete Snyder, Hamed Haddadi, Fabián E. Bustamante, Gareth Tyson,
- Abstract要約: 本稿では,商業的個人識別情報(PII)除去システムについて,大規模な実証的研究を行った。
これらのサービスの一般的な例としては、DeleteMe、Mozilla Monitor、Incogniなどが挙げられる。
これらのサービスには、プライバシ向上技術としてのこれらのサービスの有用性を制限する、相当な精度とカバレッジの問題があることが分かりました。
- 参考スコア(独自算出の注目度): 11.581832373575644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the first large-scale empirical study of commercial personally identifiable information (PII) removal systems -- commercial services that claim to improve privacy by automating the removal of PII from data broker's databases. Popular examples of such services include DeleteMe, Mozilla Monitor, Incogni, among many others. The claims these services make may be very appealing to privacy-conscious Web users, but how effective these services actually are at improving privacy has not been investigated. This work aims to improve our understanding of commercial PII removal services in multiple ways. First, we conduct a user study where participants purchase subscriptions from four popular PII removal services, and report (i) what PII the service find, (ii) from which data brokers, (iii) whether the service is able to have the information removed, and (iv) whether the identified information actually is PII describing the participant. And second, by comparing the claims and promises the services makes (e.g. which and how many data brokers each service claims to cover). We find that these services have significant accuracy and coverage issues that limit the usefulness of these services as a privacy-enhancing technology. For example, we find that the measured services are unable to remove the majority of the identified PII records from data broker's (48.2% of the successfully removed found records) and that most records identified by these services are not PII about the user (study participants found that only 41.1% of records identified by these services were PII about themselves).
- Abstract(参考訳): 本稿では,データブローカのデータベースからPIIを自動削除することで,プライバシの向上を主張する商用サービスである,商用個人識別情報(PII)削除システムについて,大規模な実証的研究を行った。
これらのサービスの一般的な例としては、DeleteMe、Mozilla Monitor、Incogniなどが挙げられる。
これらのサービスがプライバシーを意識したウェブユーザーにとって非常に魅力的であると主張するが、これらのサービスが実際にプライバシーを改善するのにどれほど効果的かは調査されていない。
本研究の目的は、商用PII除去サービスの理解を深めることである。
まず、参加者が4つの人気のあるPII削除サービスからサブスクリプションを購入するユーザスタディを実施し、報告する。
i) サービスが見つけるPII。
(ii)データブローカー
三 サービスがその情報を除去することができるか否か、及び
四 識別された情報が実際に参加者を表すPIIであるか否か。
第二に、クレームを比較して、サービスに約束する(例えば、各サービスがカバーするデータブローカーの数と数)。
これらのサービスには、プライバシ向上技術としてのこれらのサービスの有用性を制限する、相当な精度とカバレッジの問題があることが分かりました。
例えば、計測されたサービスは、データブローカーから特定されたPIIレコードの大多数(48.2%が削除された)を除去することができず、これらのサービスによって特定されたほとんどのレコードは、ユーザに関するPIIではない(調査参加者は、これらのサービスによって特定されたレコードの41.1%が、自分自身のPIIであることがわかった)。
関連論文リスト
- A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - Buyer-Initiated Auction Mechanism for Data Redemption in Machine Unlearning [10.43572220941666]
人工知能(AI)の急速な成長はプライバシーの懸念を引き起こしている。
カリフォルニア州消費者プライバシ法(CCPA)のような主要な規制
データ償還のための買い手主導型オークション機構を提案する。
論文 参考訳(メタデータ) (2025-03-29T07:44:34Z) - The Role of Privacy Guarantees in Voluntary Donation of Private Health Data for Altruistic Goals [15.506410659562205]
本研究は,プライバシ・エンハンスメント・テクノロジー(PET)を通じて提供される4つの一般的な保証の下で,新しい治療法を開発するために,米国在住の人々が医療データを寄付する意思について検討する。
以上の結果から, プライバシ保護の明示的なアウトライン化が, 全体的な認識にほとんど影響を与えないことが判明した。
技術コミュニティはPET保証の信頼を高めるメカニズムとして監査を提案してきたが、そのような監査に対する透明性からの制限効果を観察した。
論文 参考訳(メタデータ) (2024-07-03T18:50:48Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - ProPILE: Probing Privacy Leakage in Large Language Models [38.92840523665835]
大規模言語モデル(LLM)は、しばしば大量のWebコンパイルデータに基づいて訓練される。
本稿では,PII リークの可能性を意識して,データ被写体や PII の所有者を支援する新しい探索ツールである ProPILE について述べる。
論文 参考訳(メタデータ) (2023-07-04T18:53:47Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。