論文の概要: A Context-Aware Approach for Textual Adversarial Attack through
Probability Difference Guided Beam Search
- arxiv url: http://arxiv.org/abs/2208.08029v1
- Date: Wed, 17 Aug 2022 02:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:39:07.983781
- Title: A Context-Aware Approach for Textual Adversarial Attack through
Probability Difference Guided Beam Search
- Title(参考訳): 確率差誘導ビーム探索によるテキスト逆攻撃に対する文脈認識手法
- Authors: Huijun Liu, Jie Yu, Shasha Li, Jun Ma, Bin Ji
- Abstract要約: 本稿では,確率差誘導ビームサーチを用いた文脈認識型テキスト逆アタックモデルPDBSを提案する。
PDBSはビームサーチを用いて攻撃経路を成功させ、限られた探索空間に苦しむことを避ける。
実験と人的評価により、PDBSは、一連の評価指標において、以前の最高のモデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 11.321157763737649
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Textual adversarial attacks expose the vulnerabilities of text classifiers
and can be used to improve their robustness. Existing context-aware methods
solely consider the gold label probability and use the greedy search when
searching an attack path, often limiting the attack efficiency. To tackle these
issues, we propose PDBS, a context-aware textual adversarial attack model using
Probability Difference guided Beam Search. The probability difference is an
overall consideration of all class label probabilities, and PDBS uses it to
guide the selection of attack paths. In addition, PDBS uses the beam search to
find a successful attack path, thus avoiding suffering from limited search
space. Extensive experiments and human evaluation demonstrate that PDBS
outperforms previous best models in a series of evaluation metrics, especially
bringing up to a +19.5% attack success rate. Ablation studies and qualitative
analyses further confirm the efficiency of PDBS.
- Abstract(参考訳): テキスト敵対攻撃はテキスト分類器の脆弱性を暴露し、その堅牢性を改善するために使用できる。
既存の文脈認識手法はゴールドラベル確率のみを考慮し、攻撃経路を探索する際に欲望探索を使い、攻撃効率を制限していることが多い。
そこで本研究では,確率差誘導ビーム探索を用いた文脈認識型テキスト逆攻撃モデル pdbs を提案する。
確率差は全てのクラスラベルの確率を総合的に考慮し、PDBSは攻撃経路の選択を誘導するためにそれを使用する。
さらに、PDBSはビームサーチを使用して攻撃経路を成功させ、限られた検索スペースに苦しむことを避ける。
大規模な実験と人的評価により、PDBSは様々な評価指標で過去の最高のモデルよりも優れており、特に+19.5%の攻撃成功率をもたらすことが示されている。
アブレーション研究と定性解析はpdbの効率をさらに確認する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Sample Attackability in Natural Language Adversarial Attacks [1.4213973379473654]
この研究は、NLP攻撃に対するサンプル攻撃可能性/ロバスト性の定義を正式に拡張した。
2つの人気のあるNLPデータセット、アートモデルの4つの状態、および4つの異なるNLP逆攻撃方法の実験。
論文 参考訳(メタデータ) (2023-06-21T06:20:51Z) - BeamAttack: Generating High-quality Textual Adversarial Examples through
Beam Search and Mixed Semantic Spaces [3.8029070240258678]
敵対的な例は 人間の読者には受け入れられません
ブラックボックスの設定では、攻撃者はモデルのパラメータやアーキテクチャを知ることなくモデルを騙すことができる。
本研究では,混合意味空間と改良されたビームサーチを利用したテキスト攻撃アルゴリズムであるビームアタックを提案する。
論文 参考訳(メタデータ) (2023-03-09T03:30:52Z) - ADDMU: Detection of Far-Boundary Adversarial Examples with Data and
Model Uncertainty Estimation [125.52743832477404]
AED(Adversarial Examples Detection)は、敵攻撃に対する重要な防御技術である。
本手法は, 正逆検出とFB逆検出の2種類の不確実性推定を組み合わせた新しい手法である textbfADDMU を提案する。
提案手法は,各シナリオにおいて,従来の手法よりも3.6と6.0のEmphAUC点が優れていた。
論文 参考訳(メタデータ) (2022-10-22T09:11:12Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。