論文の概要: No Intruder, no Validity: Evaluation Criteria for Privacy-Preserving
Text Anonymization
- arxiv url: http://arxiv.org/abs/2103.09263v1
- Date: Tue, 16 Mar 2021 18:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 00:36:47.327497
- Title: No Intruder, no Validity: Evaluation Criteria for Privacy-Preserving
Text Anonymization
- Title(参考訳): no intruder, no valid: evaluation criteria for privacy-preserving text anonymization
- Authors: Maximilian Mozes, Bennett Kleinberg
- Abstract要約: 自動テキスト匿名化システムを開発する研究者や実践者は,その評価手法が,個人を再同定から保護するシステムの能力に本当に反映しているかどうかを慎重に評価すべきである。
本稿では,匿名化手法の技術的性能,匿名化による情報損失,不正文書の非匿名化能力を含む評価基準のセットを提案する。
- 参考スコア(独自算出の注目度): 0.48733623015338234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For sensitive text data to be shared among NLP researchers and practitioners,
shared documents need to comply with data protection and privacy laws. There is
hence a growing interest in automated approaches for text anonymization.
However, measuring such methods' performance is challenging: missing a single
identifying attribute can reveal an individual's identity. In this paper, we
draw attention to this problem and argue that researchers and practitioners
developing automated text anonymization systems should carefully assess whether
their evaluation methods truly reflect the system's ability to protect
individuals from being re-identified. We then propose TILD, a set of evaluation
criteria that comprises an anonymization method's technical performance, the
information loss resulting from its anonymization, and the human ability to
de-anonymize redacted documents. These criteria may facilitate progress towards
a standardized way for measuring anonymization performance.
- Abstract(参考訳): 機密テキストデータをNLP研究者と実践者の間で共有するには、共有ドキュメントはデータ保護とプライバシー法に従う必要がある。
そのため、テキスト匿名化の自動化アプローチへの関心が高まっている。
しかし、そのようなメソッドのパフォーマンスを測定することは難しい。単一の識別属性が欠落すると、個人のアイデンティティが明らかになる。
本稿では,この問題に注意を向け,自動テキスト匿名化システムを開発する研究者や実践者が,その評価手法が,個人の再同定を防げるシステムの能力を本当に反映しているかを慎重に評価すべきであると主張する。
次に、匿名化手法の技術的性能、匿名化による情報損失、再現された文書の非匿名化能力を含む評価基準のセットであるTILDを提案する。
これらの基準は、匿名化性能を測定する標準的な方法への進歩を促進する可能性がある。
関連論文リスト
- Large Language Models are Advanced Anonymizers [13.900633576526863]
敵の匿名化が、現在の業界レベルの匿名化を、その結果のユーティリティとプライバシの点で上回っていることを示す。
まず,敵対的LLM推論の面における匿名性を評価するための新しい設定を提案する。
論文 参考訳(メタデータ) (2024-02-21T14:44:00Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Unsupervised Text Deidentification [101.2219634341714]
個人識別情報を漏洩する単語を隠蔽する教師なしの識別手法を提案する。
K匿名性に基づくプライバシによって動機づけられた私たちは、最小の再識別ランクを保証するリアクションを生成します。
論文 参考訳(メタデータ) (2022-10-20T18:54:39Z) - A Dataset on Malicious Paper Bidding in Peer Review [84.68308372858755]
悪意あるレビュアーは、紙の割り当てを非倫理的に操作するために戦略的に入札した。
この問題を緩和するための方法の作成と評価への重要な障害は、悪意ある紙入札に関する公開データの欠如である。
我々は、参加者に正直に、悪意的に入札するよう指示されたモックカンファレンス活動から収集された、新しいデータセットをリリースする。
論文 参考訳(メタデータ) (2022-06-24T20:23:33Z) - Statistical anonymity: Quantifying reidentification risks without
reidentifying users [4.103598036312231]
データ匿名化は、参加者の再識別を防ぐためのプライバシ保護データリリースに対するアプローチである。
リリースされたデータに$k$匿名を強制するための既存のアルゴリズムは、匿名化を実行するキュレーターが元のデータに完全にアクセスできることを前提としている。
本稿では,キュレーターに置かれなければならない信頼を減らすためのアイデアについて検討するが,それでも$k$匿名性の統計的概念は維持されている。
論文 参考訳(メタデータ) (2022-01-28T18:12:44Z) - The Text Anonymization Benchmark (TAB): A Dedicated Corpus and
Evaluation Framework for Text Anonymization [2.9849405664643585]
本稿では,テキスト匿名化手法の性能評価のための新しいベンチマークと関連する評価指標を提案する。
テキスト匿名化は、個人情報の開示を防ぐためにテキスト文書を編集するタスクとして定義されており、現在、プライバシー指向の注釈付きテキストリソースが不足している。
本稿では,TAB (Text Anonymization Benchmark) について述べる。
論文 参考訳(メタデータ) (2022-01-25T14:34:42Z) - Protecting Anonymous Speech: A Generative Adversarial Network
Methodology for Removing Stylistic Indicators in Text [2.9005223064604078]
我々は,生成的敵ネットワークの構築によるオーサリングの匿名化への新たなアプローチを開発する。
完全自動方式は,コンテンツ保存や流布の点で他の手法と同等の結果が得られる。
我々のアプローチは、オープンセットの文脈に順応し、これまで遭遇したことのない著者の文章を匿名化することができる。
論文 参考訳(メタデータ) (2021-10-18T17:45:56Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。