論文の概要: Exposing Privacy Risks in Anonymizing Clinical Data: Combinatorial Refinement Attacks on k-Anonymity Without Auxiliary Information
- arxiv url: http://arxiv.org/abs/2509.03350v1
- Date: Wed, 03 Sep 2025 14:36:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.548634
- Title: Exposing Privacy Risks in Anonymizing Clinical Data: Combinatorial Refinement Attacks on k-Anonymity Without Auxiliary Information
- Title(参考訳): 臨床データの匿名化におけるプライバシリスクの公開:補助情報のないk匿名性に対するコンビニアルリファインメント攻撃
- Authors: Somiya Chhillar, Mary K. Righi, Rebecca E. Sutter, Evgenios M. Kornaropoulos,
- Abstract要約: ローカルリコーディングを用いて生成したk匿名化データセットを対象とした,新たなプライバシ攻撃手法を提案する。
実世界の臨床マイクロデータを用いた結果から,外部情報がない場合でも,確立された匿名化フレームワークが保証されるレベルのプライバシを提供できないことが明らかとなった。
- 参考スコア(独自算出の注目度): 3.3423762257383216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite longstanding criticism from the privacy community, k-anonymity remains a widely used standard for data anonymization, mainly due to its simplicity, regulatory alignment, and preservation of data utility. However, non-experts often defend k-anonymity on the grounds that, in the absence of auxiliary information, no known attacks can compromise its protections. In this work, we refute this claim by introducing Combinatorial Refinement Attacks (CRA), a new class of privacy attacks targeting k-anonymized datasets produced using local recoding. This is the first method that does not rely on external auxiliary information or assumptions about the underlying data distribution. CRA leverages the utility-optimizing behavior of local recoding anonymization of ARX, which is a widely used open-source software for anonymizing data in clinical settings, to formulate a linear program that significantly reduces the space of plausible sensitive values. To validate our findings, we partnered with a network of free community health clinics, an environment where (1) auxiliary information is indeed hard to find due to the population they serve and (2) open-source k-anonymity solutions are attractive due to regulatory obligations and limited resources. Our results on real-world clinical microdata reveal that even in the absence of external information, established anonymization frameworks do not deliver the promised level of privacy, raising critical privacy concerns.
- Abstract(参考訳): プライバシーコミュニティからの長年の批判にもかかわらず、k匿名性は、その単純さ、規制の整合性、データユーティリティの保存など、データ匿名化の標準として広く使われている。
しかしながら、非専門家はしばしば、補助情報がない場合、既知の攻撃がその保護を侵害することはないという理由で、k匿名を擁護する。
本研究では,この主張に対して,ローカルリコーディングを用いて生成したk匿名データセットを対象とした,新たなプライバシ攻撃クラスである Combinatorial Refinement Attacks (CRA) を導入することで反論する。
これは、基礎となるデータ分布に関する外部補助情報や仮定に依存しない最初の方法である。
CRAは、臨床環境でデータを匿名化するために広く使われているオープンソースのソフトウェアであるARXの局所的再コーディング匿名化のユーティリティ最適化挙動を活用して、妥当な機密値の空間を著しく削減する線形プログラムを定式化する。
本研究は,(1)提供する人口による補助情報の発見が困難であり,(2)オープンソースk匿名化ソリューションは,規制義務や限られた資源によって魅力的な環境である,フリーコミュニティ医療クリニックのネットワークと提携した。
実世界の臨床マイクロデータを用いた結果から,外部情報がない場合でも,確立された匿名化フレームワークは保証されたプライバシーレベルを達成せず,重要なプライバシー上の懸念を生じさせることが明らかとなった。
関連論文リスト
- Privacy, Informed Consent and the Demand for Anonymisation of Smart Meter Data [2.111461702802409]
我々は、匿名化のための非金銭的(ウィリングネスとシェア、スマートな計測需要)と金銭的(ウィリングネスとペイ/アクセプション)の選好を推定するために、混合メソッドアプローチを使用します。
平均して、消費者は匿名化にお金を払っているし、匿名化がオプションとして提示されたら匿名化されていないデータをシェアする意思も低い。
論文 参考訳(メタデータ) (2025-08-27T20:05:09Z) - Self-Refining Language Model Anonymizers via Adversarial Distillation [49.17383264812234]
大きな言語モデル(LLM)は、個人情報を推測する能力がプライバシーのリスクを生じさせるセンシティブなドメインで、ますます使われています。
本稿では,SLM(Small Language Model)を訓練し,効率的な匿名化を実現するための新しい蒸留フレームワークであるSEAL(Self-refining Anonymization with Language Model)を紹介する。
論文 参考訳(メタデータ) (2025-06-02T08:21:27Z) - A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Privacy-Preserving Hierarchical Anonymization Framework over Encrypted Data [0.061446808540639365]
本研究では、同型暗号と2種類のドメインからなる秘密共有を用いた階層的k匿名化フレームワークを提案する。
実験により、2つのドメインを接続することで匿名化プロセスが促進され、提案したセキュア階層型アーキテクチャが実用的かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-10-19T01:08:37Z) - Statistical anonymity: Quantifying reidentification risks without
reidentifying users [4.103598036312231]
データ匿名化は、参加者の再識別を防ぐためのプライバシ保護データリリースに対するアプローチである。
リリースされたデータに$k$匿名を強制するための既存のアルゴリズムは、匿名化を実行するキュレーターが元のデータに完全にアクセスできることを前提としている。
本稿では,キュレーターに置かれなければならない信頼を減らすためのアイデアについて検討するが,それでも$k$匿名性の統計的概念は維持されている。
論文 参考訳(メタデータ) (2022-01-28T18:12:44Z) - A Review of Anonymization for Healthcare Data [0.30586855806896046]
一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)一般データ保護規則(一般データ保護規則)
論文 参考訳(メタデータ) (2021-04-13T21:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。