論文の概要: On the Vulnerability of Text Sanitization
- arxiv url: http://arxiv.org/abs/2410.17052v1
- Date: Tue, 22 Oct 2024 14:31:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:26:53.251792
- Title: On the Vulnerability of Text Sanitization
- Title(参考訳): テキスト衛生の脆弱性について
- Authors: Meng Tong, Kejiang Chen, Xiaojian Yuang, Jiayang Liu, Weiming Zhang, Nenghai Yu, Jie Zhang,
- Abstract要約: テキストの衛生化を目的とした理論的に最適な再構築攻撃を提案する。
衛生性能を評価するためのベンチマークとして, ASR のバウンダリを導出する。
我々の攻撃の1つは、最先端のベースラインよりもASRが46.4%向上したことである。
- 参考スコア(独自算出の注目度): 60.162007426724564
- License:
- Abstract: Text sanitization, which employs differential privacy to replace sensitive tokens with new ones, represents a significant technique for privacy protection. Typically, its performance in preserving privacy is evaluated by measuring the attack success rate (ASR) of reconstruction attacks, where attackers attempt to recover the original tokens from the sanitized ones. However, current reconstruction attacks on text sanitization are developed empirically, making it challenging to accurately assess the effectiveness of sanitization. In this paper, we aim to provide a more accurate evaluation of sanitization effectiveness. Inspired by the works of Palamidessi et al., we implement theoretically optimal reconstruction attacks targeting text sanitization. We derive their bounds on ASR as benchmarks for evaluating sanitization performance. For real-world applications, we propose two practical reconstruction attacks based on these theoretical findings. Our experimental results underscore the necessity of reassessing these overlooked risks. Notably, one of our attacks achieves a 46.4% improvement in ASR over the state-of-the-art baseline, with a privacy budget of epsilon=4.0 on the SST-2 dataset. Our code is available at: https://github.com/mengtong0110/On-the-Vulnerability-of-Text-Sanitization.
- Abstract(参考訳): 機密トークンを新しいトークンに置き換えるために、差分プライバシーを利用するテキストサニタイズは、プライバシ保護にとって重要なテクニックである。
典型的には、プライバシを保存する際のそのパフォーマンスは、攻撃者が衛生化されたトークンから元のトークンを回復しようとするリコンストラクション攻撃の攻撃成功率(ASR)を測定することで評価される。
しかし, テキストの衛生化に対する現在の再構築攻撃は経験的に展開されており, 衛生化の有効性を正確に評価することは困難である。
本稿では,より正確な衛生効果評価を行うことを目的とする。
Palamidessi et al の著作に触発されて、テキストの衛生化を狙った理論的に最適な再構築攻撃を実装した。
衛生性能を評価するためのベンチマークとして, ASR のバウンダリを導出する。
実世界の応用においては,これらの理論的知見に基づく2つの実用的な再構築攻撃を提案する。
我々の実験結果は、見過ごされたリスクを再評価する必要性を浮き彫りにした。
特に、我々の攻撃の1つは、最先端のベースラインに対してASRを46.4%改善し、プライバシー予算はSST-2データセットで4.0である。
私たちのコードは、https://github.com/mengtong0110/On-the-Vulnerability-of-Text-Sanitizationで利用可能です。
関連論文リスト
- CleanerCLIP: Fine-grained Counterfactual Semantic Augmentation for Backdoor Defense in Contrastive Learning [53.766434746801366]
バックドアトリガの特徴的接続を遮断するための細粒な textbfText textbfAlignment textbfCleaner (TA-Cleaner) を提案する。
TA-Cleanerは、ファインタニングベースの防御技術の中で最先端の防御性を達成している。
論文 参考訳(メタデータ) (2024-09-26T07:35:23Z) - Towards Physical World Backdoor Attacks against Skeleton Action Recognition [21.261855773907616]
スケルトン行動認識(SAR)は、ヒト骨格構造の効率的な表現において大きな関心を集めている。
近年の研究では、SARモデル、特に敵の攻撃に対する脆弱性に対するセキュリティ上の懸念が高まっている。
SARに対する物理的バックドアアタックの最初の調査であるPhysical Skeleton Backdoor Attacks (PSBA)を紹介した。
論文 参考訳(メタデータ) (2024-08-16T11:29:33Z) - Efficient Trigger Word Insertion [9.257916713112945]
我々の主な目的は、テキストバックドア攻撃において、良好なアタック成功率(ASR)を達成しつつ、有毒なサンプルの数を減らすことである。
トリガー語最適化と有毒なサンプル選択の観点から,効率的なトリガー語挿入戦略を提案する。
提案手法は, 汚れラベル設定で有毒な試料が10個あれば90%以上を達成でき, クリーンラベル設定ではトレーニングデータの1.5%しか必要としない。
論文 参考訳(メタデータ) (2023-11-23T12:15:56Z) - Semantic-Preserving Adversarial Code Comprehension [75.76118224437974]
本稿では,セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・アタック(SPACE)を提案する。
実験と分析により、SPACEは、コードに対するPrLMのパフォーマンスを高めながら、最先端の攻撃に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-12T10:32:51Z) - SemAttack: Natural Textual Attacks via Different Semantic Spaces [26.97034787803082]
本研究では,異なる意味摂動関数を構築することで,自然な逆文を生成するための効率的なフレームワークを提案する。
SemAttackは、攻撃の成功率の高い異なる言語に対して、敵対的なテキストを生成することができることを示す。
我々の生成した敵対的テキストは自然であり、人間のパフォーマンスにはほとんど影響しない。
論文 参考訳(メタデータ) (2022-05-03T03:44:03Z) - Perturbations in the Wild: Leveraging Human-Written Text Perturbations
for Realistic Adversarial Attack and Defense [19.76930957323042]
ANTHROは、野生で600万以上の人間が書いたテキストの摂動を誘導的に抽出し、それらを現実的な敵攻撃に活用する。
本研究では,(1)攻撃成功率,(2)原文の意味的保存,(3)人文と区別できないステルスネスのトレードオフを,AnTHROが生成した敵対的テキストが達成できることを見出した。
論文 参考訳(メタデータ) (2022-03-19T16:00:01Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z) - Differential Privacy for Text Analytics via Natural Text Sanitization [44.95170585853761]
本稿では,本論文のテキスト・サニタイズへの直接的なアプローチとして,新たなローカルDP概念による感度と類似性を考察する。
衛生化されたテキストは、我々の衛生に配慮した事前訓練と微調整にも貢献し、将来性のあるユーティリティを備えたBERT言語モデル上でのプライバシー保護自然言語処理を可能にします。
論文 参考訳(メタデータ) (2021-06-02T15:15:10Z) - Post-Contextual-Bandit Inference [57.88785630755165]
コンテキストバンディットアルゴリズムは、電子商取引、医療、政策立案における非適応的なA/Bテストを置き換える傾向にある。
研究参加者の成果を改善することもでき、良い方針や最良の政策を特定できる可能性を高めることもできる。
研究の終盤における新規介入の信頼性推論を支援するため, 平均治療効果, サブグループ効果, あるいは新政策の価値について, 有効な信頼区間を構築したい。
論文 参考訳(メタデータ) (2021-06-01T12:01:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。