論文の概要: UnPII: Unlearning Personally Identifiable Information with Quantifiable Exposure Risk
- arxiv url: http://arxiv.org/abs/2601.01786v1
- Date: Mon, 05 Jan 2026 04:45:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.766053
- Title: UnPII: Unlearning Personally Identifiable Information with Quantifiable Exposure Risk
- Title(参考訳): UnPII: 定量露光リスクを伴う個人識別情報の学習
- Authors: Intae Jeon, Yujeong Kwon, Hyungjoon Koo,
- Abstract要約: UnPIIは、個々のPII属性または組み合わせたPII属性のリスクに基づいて、忘れを優先する最初のPII中心の未学習アプローチである。
現実的な評価を支援するために,現実的な暴露シナリオをシミュレートする合成PIIデータセットを体系的に構築する。
- 参考スコア(独自算出の注目度): 1.7825339856352196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ever-increasing adoption of Large Language Models in critical sectors like finance, healthcare, and government raises privacy concerns regarding the handling of sensitive Personally Identifiable Information (PII) during training. In response, regulations such as European Union's General Data Protection Regulation (GDPR) mandate the deletion of PII upon requests, underscoring the need for reliable and cost-effective data removal solutions. Machine unlearning has emerged as a promising direction for selectively forgetting data points. However, existing unlearning techniques typically apply a uniform forgetting strategy that neither accounts for the varying privacy risks posed by different PII attributes nor reflects associated business risks. In this work, we propose UnPII, the first PII-centric unlearning approach that prioritizes forgetting based on the risk of individual or combined PII attributes. To this end, we introduce the PII risk index (PRI), a composite metric that incorporates multiple dimensions of risk factors: identifiability, sensitivity, usability, linkability, permanency, exposability, and compliancy. The PRI enables a nuanced evaluation of privacy risks associated with PII exposures and can be tailored to align with organizational privacy policies. To support realistic assessment, we systematically construct a synthetic PII dataset (e.g., 1,700 PII instances) that simulates realistic exposure scenarios. UnPII seamlessly integrates with established unlearning algorithms, such as Gradient Ascent, Negative Preference Optimization, and Direct Preference Optimization, without modifying their underlying principles. Our experimental results demonstrate that UnPII achieves the improvements of accuracy up to 11.8%, utility up to 6.3%, and generalizability up to 12.4%, respectively, while incurring a modest fine-tuning overhead of 27.5% on average during unlearning.
- Abstract(参考訳): 金融、医療、政府といった重要な分野における大規模言語モデルの採用が、トレーニング中に機密性のある個人識別情報(PII)を扱うことに関するプライバシー上の懸念を高めている。
これに対し、欧州連合(EU)の一般データ保護規則(GDPR)などの規制では、要求に応じてPIIの削除を義務付けており、信頼性と費用対効果の高いデータ除去ソリューションの必要性が強調されている。
機械学習は、データポイントを選択的に忘れるための有望な方向として現れた。
しかし、既存の未学習技術は一般的に、異なるPII属性によって生じるさまざまなプライバシーリスクを考慮せず、関連するビジネスリスクを反映しない均一な忘れ方策を適用している。
本研究では,個々のPII属性や組み合わせたPII属性のリスクに基づいて,忘れを優先する最初のPII中心のアンラーニング手法であるUnPIIを提案する。
この目的のために, 識別可能性, 感受性, ユーザビリティ, リンク性, 永続性, 使い捨て性, 適合性といった, リスク要因の多次元を包含する複合指標であるPIIリスク指標(PRI)を導入する。
PRIは、PII暴露に関連するプライバシーリスクの微妙な評価を可能にし、組織のプライバシーポリシーに合わせて調整することができる。
現実的な評価を支援するため,現実的な暴露シナリオをシミュレートする合成PIIデータセット(例:1,700PIIインスタンス)を体系的に構築した。
UnPIIは、基礎となる原則を変更することなく、Gradient Ascent、Negative Preference Optimization、Direct Preference Optimizationといった既存の未学習アルゴリズムとシームレスに統合される。
実験の結果,UnPIIの精度は最大11.8%,ユーティリティは最大6.3%,一般化性は最大12.4%,微調整のオーバーヘッドは平均27.5%であった。
関連論文リスト
- Bridging VLMs and Embodied Intelligence with Deliberate Practice Policy Optimization [72.20212909644017]
Deliberate Practice Policy Optimization (DPPO) はメタ認知型メタループのトレーニングフレームワークである。
DPPOは教師付き微調整(能力拡張)と強化学習(技能向上)の交互に行う
実証的には、DPPO(Pelican-VL 1.0)で視覚言語を具現化したモデルをトレーニングすると、ベースモデルよりも20.3%パフォーマンスが向上する。
私たちはモデルとコードをオープンソースにして、データとリソースのボトルネックを軽減する最初の体系的なフレームワークを提供しています。
論文 参考訳(メタデータ) (2025-11-20T17:58:04Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Unifying Re-Identification, Attribute Inference, and Data Reconstruction Risks in Differential Privacy [24.723577119566112]
攻撃成功のバウンダリは、再識別、属性推論、データ再構成リスクにまたがって、同一の統一形式をとることができることを示す。
この結果は, $varepsilon$-DP, R'enyi DP, および集中DPを用いた従来の方法よりも厳密である。
論文 参考訳(メタデータ) (2025-07-09T15:59:30Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Generated Data with Fake Privacy: Hidden Dangers of Fine-tuning Large Language Models on Generated Data [18.984529269623135]
本研究では,生成データによる微調整が真のプライバシ向上に寄与するか,新たなプライバシリスクを導入するかを検討する。
プライバシリスクを測定するために、Pythia Model SuiteとOpen Pre-trained Transformerを使用します。
論文 参考訳(メタデータ) (2024-09-12T10:14:12Z) - Pessimism Meets Risk: Risk-Sensitive Offline Reinforcement Learning [19.292214425524303]
リスクに敏感な強化学習(RL)は,不確実性を管理し,潜在的な有害な結果を最小限に抑えることが不可欠であるシナリオにおいて,意思決定を強化する能力において重要な分野である。
本研究は, エントロピーリスク尺度をRL問題に適用することに焦点を当てる。
我々は,リスクに敏感な観点からはまだ検討されていない理論的枠組みである線形マルコフ決定プロセス(MDP)の設定を中心としている。
論文 参考訳(メタデータ) (2024-07-10T13:09:52Z) - A Reductions Approach to Risk-Sensitive Reinforcement Learning with Optimized Certainty Equivalents [44.09686403685058]
本研究の目的は,累積報酬のリスク尺度を最適化する履歴依存政策を学習することである。
楽観主義に基づくメタアルゴリズムと政策勾配に基づくメタアルゴリズムを提案する。
我々は,提案アルゴリズムが概念実証MDPで最適な履歴依存ポリシーを学習できることを実証的に示す。
論文 参考訳(メタデータ) (2024-03-10T21:45:12Z) - Uncertainty-Aware Instance Reweighting for Off-Policy Learning [63.31923483172859]
本研究では,不確実性を考慮した逆確率スコア推定器 (UIPS) を提案する。
実世界の3つのレコメンデーションデータセットを用いた実験結果から,提案したUIPS推定器の有効サンプル効率が示された。
論文 参考訳(メタデータ) (2023-03-11T11:42:26Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。