論文の概要: How do we measure privacy in text? A survey of text anonymization metrics
- arxiv url: http://arxiv.org/abs/2512.01109v1
- Date: Sun, 30 Nov 2025 22:12:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.588663
- Title: How do we measure privacy in text? A survey of text anonymization metrics
- Title(参考訳): テキストにおけるプライバシの計測方法 : テキスト匿名化指標の調査
- Authors: Yaxuan Ren, Krithika Ramesh, Yaxing Yao, Anjalie Field,
- Abstract要約: 本研究では,テキストにおけるプライバシ保護を評価するための指標を,体系的な調査によって明らかにし,検討することを目的とする。
6つの異なるプライバシー概念を特定し比較し、関連するメトリクスがどのように異なるプライバシーリスクの側面を捉えているかを分析する。
- 参考スコア(独自算出の注目度): 14.08328402597163
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we aim to clarify and reconcile metrics for evaluating privacy protection in text through a systematic survey. Although text anonymization is essential for enabling NLP research and model development in domains with sensitive data, evaluating whether anonymization methods sufficiently protect privacy remains an open challenge. In manually reviewing 47 papers that report privacy metrics, we identify and compare six distinct privacy notions, and analyze how the associated metrics capture different aspects of privacy risk. We then assess how well these notions align with legal privacy standards (HIPAA and GDPR), as well as user-centered expectations grounded in HCI studies. Our analysis offers practical guidance on navigating the landscape of privacy evaluation approaches further and highlights gaps in current practices. Ultimately, we aim to facilitate more robust, comparable, and legally aware privacy evaluations in text anonymization.
- Abstract(参考訳): 本研究では,テキストにおけるプライバシ保護を評価するための指標を,体系的な調査によって明らかにし,検討することを目的とする。
テキスト匿名化は、機密性の高いデータを持つ領域におけるNLP研究とモデル開発を可能にするために不可欠であるが、匿名化手法がプライバシーを十分に保護するかどうかを評価することは、依然としてオープンな課題である。
プライバシのメトリクスを報告した47の論文を手作業でレビューし、6つの異なるプライバシの概念を特定し比較し、関連するメトリクスがプライバシのリスクのさまざまな側面をどのように捉えているかを分析します。
そして、これらの概念が法的プライバシ標準(HIPAAとGDPR)およびHCI研究に基づくユーザ中心の期待とどのように一致しているかを評価する。
我々の分析は、プライバシー評価アプローチの展望をナビゲートするための実践的なガイダンスを提供し、現在のプラクティスのギャップを強調します。
最終的には、テキスト匿名化において、より堅牢で、同等で、法的に認識されているプライバシー評価を促進することを目指している。
関連論文リスト
- Zero-Shot Privacy-Aware Text Rewriting via Iterative Tree Search [60.197239728279534]
クラウドベースのサービスにおける大規模言語モデル(LLM)は、重大なプライバシー上の懸念を引き起こしている。
既存のテキスト匿名化と、ルールベースのリアクションやスクラブのような非識別技術は、プライバシー保護とテキストの自然性と実用性のバランスをとるのに苦労することが多い。
我々は,一貫性,妥当性,自然性を保ちながら,秘密情報を体系的に難読化・削除するゼロショット木探索型反復文書き換えアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-25T07:23:52Z) - Evaluation of Human Visual Privacy Protection: A Three-Dimensional Framework and Benchmark Dataset [2.184775414778289]
本稿では,3次元の視覚的プライバシ保護手法(プライバシ,ユーティリティ,実用性)を評価するための枠組みを提案する。
HR-VISPRは、バイオメトリック、ソフトバイオメトリック、非バイオメトリックラベルを備えた、公開可能な人間中心のデータセットで、解釈可能なプライバシメトリックをトレーニングする。
論文 参考訳(メタデータ) (2025-07-18T14:43:24Z) - PrivaCI-Bench: Evaluating Privacy with Contextual Integrity and Legal Compliance [44.287734754038254]
生成型大規模言語モデル(LLM)のコンテキストプライバシ評価ベンチマークであるPrivaCI-Benchを提案する。
本稿では,最近の推論モデルQwQ-32BとDeepseek R1を含む最新のLCMを評価した。
実験の結果、LLMは特定のコンテキスト内で重要なCIパラメータを効果的にキャプチャできるが、プライバシコンプライアンスのさらなる進歩が必要であることが示唆された。
論文 参考訳(メタデータ) (2025-02-24T10:49:34Z) - Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - SeePrivacy: Automated Contextual Privacy Policy Generation for Mobile
Applications [21.186902172367173]
SeePrivacyは、モバイルアプリのコンテキストプライバシポリシを自動的に生成するように設計されている。
本手法は,モバイルGUI理解とプライバシポリシ文書解析を相乗的に組み合わせた手法である。
検索されたポリシーセグメントの96%は、そのコンテキストと正しく一致させることができる。
論文 参考訳(メタデータ) (2023-07-04T12:52:45Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。