論文の概要: Adaptive Text Anonymization: Learning Privacy-Utility Trade-offs via Prompt Optimization
- arxiv url: http://arxiv.org/abs/2602.20743v1
- Date: Tue, 24 Feb 2026 10:12:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.710046
- Title: Adaptive Text Anonymization: Learning Privacy-Utility Trade-offs via Prompt Optimization
- Title(参考訳): Adaptive Text Anonymization: Prompt Optimizationを通じてプライバシとユーティリティのトレードオフを学ぶ
- Authors: Gabriel Loiseau, Damien Sileo, Damien Riquet, Maxime Meyer, Marc Tommasi,
- Abstract要約: 適応型テキスト匿名化(Adaptive text anonymization)は、匿名化戦略を特定のプライバシ・ユーティリティー要件に自動的に適合させる新しいタスク定式化である。
さまざまなドメイン、プライバシ制約、ユーティリティ目的の5つのデータセットにまたがるベンチマークを提示する。
本手法は,プライバシ・ユーティリティ・トレードオフフロンティアのさまざまな点を探索する新たな匿名化戦略を発見することができることを示す。
- 参考スコア(独自算出の注目度): 7.9049991577473735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Anonymizing textual documents is a highly context-sensitive problem: the appropriate balance between privacy protection and utility preservation varies with the data domain, privacy objectives, and downstream application. However, existing anonymization methods rely on static, manually designed strategies that lack the flexibility to adjust to diverse requirements and often fail to generalize across domains. We introduce adaptive text anonymization, a new task formulation in which anonymization strategies are automatically adapted to specific privacy-utility requirements. We propose a framework for task-specific prompt optimization that automatically constructs anonymization instructions for language models, enabling adaptation to different privacy goals, domains, and downstream usage patterns. To evaluate our approach, we present a benchmark spanning five datasets with diverse domains, privacy constraints, and utility objectives. Across all evaluated settings, our framework consistently achieves a better privacy-utility trade-off than existing baselines, while remaining computationally efficient and effective on open-source language models, with performance comparable to larger closed-source models. Additionally, we show that our method can discover novel anonymization strategies that explore different points along the privacy-utility trade-off frontier.
- Abstract(参考訳): プライバシ保護とユーティリティ保護の適切なバランスは、データドメイン、プライバシ目的、ダウンストリームアプリケーションによって異なります。
しかし、既存の匿名化手法は静的で手動設計の戦略に依存しており、様々な要求に適応する柔軟性に欠け、ドメイン間の一般化に失敗することが多い。
適応型テキスト匿名化(Adaptive text anonymization)は、匿名化戦略を特定のプライバシ・ユーティリティー要件に自動的に適合させる新しいタスク定式化である。
本稿では,言語モデルの匿名化命令を自動的に構築し,異なるプライバシ目標,ドメイン,下流利用パターンへの適応を可能にするタスク固有プロンプト最適化フレームワークを提案する。
このアプローチを評価するために、さまざまなドメイン、プライバシ制約、ユーティリティ目的を持つ5つのデータセットにまたがるベンチマークを提示する。
評価されたすべての設定の中で、我々のフレームワークは、既存のベースラインよりも優れたプライバシーとユーティリティのトレードオフを一貫して達成します。
さらに,プライバシ・ユーティリティ・トレードオフフロンティアに沿ったさまざまな点を探索する新たな匿名化戦略を提案できることを示す。
関連論文リスト
- Tau-Eval: A Unified Evaluation Framework for Useful and Private Text Anonymization [7.9049991577473735]
本稿では,テキスト匿名化手法をベンチマークするオープンソースフレームワークであるTau-Evalを紹介する。
Pythonライブラリ、コード、ドキュメント、チュートリアルが公開されている。
論文 参考訳(メタデータ) (2025-06-06T10:59:35Z) - Self-Refining Language Model Anonymizers via Adversarial Distillation [48.280759014096354]
本稿では,Self-refining Anonymization with Language Model (SEAL)を紹介する。
SEALは、推論時に外部モデルに頼ることなく効果的な匿名化を行うために、小型言語モデル(SLM)をトレーニングするための新しい蒸留フレームワークである。
合成個人プロファイルとテキストコメントのデータセットであるSynthPAIの実験は、SEALでトレーニングされたSLMが匿名化機能を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2025-06-02T08:21:27Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Privacy-Preserving Dynamic Assortment Selection [4.399892832075127]
本稿では,マルチノミアルロジット(MNL)バンドレートモデルを用いて,プライバシ保護のための動的アソシエーション選択のための新しいフレームワークを提案する。
弊社のアプローチでは、ノイズをユーザユーティリティ推定に統合し、探索とエクスプロイトのバランスを保ちつつ、堅牢なプライバシー保護を確保している。
論文 参考訳(メタデータ) (2024-10-29T19:28:01Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling [12.74252812104216]
本稿では,プライバシポリシからコンテキスト整合性(Contextual Integrity)のレンズを通じて,プライバシパラメータを抽出する新たなタスクを定式化する。
最近提案された質問応答に基づくソリューションを含む従来のNLPタスクは、プライバシパラメータ抽出の問題に対処するには不十分であることを示す。
論文 参考訳(メタデータ) (2020-10-01T20:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。