論文の概要: HydraText: Multi-objective Optimization for Adversarial Textual Attack
- arxiv url: http://arxiv.org/abs/2111.01528v1
- Date: Tue, 2 Nov 2021 12:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 14:04:43.795179
- Title: HydraText: Multi-objective Optimization for Adversarial Textual Attack
- Title(参考訳): HydraText: 逆テキスト攻撃に対する多目的最適化
- Authors: Shengcai Liu, Ning Lu, Cheng Chen, Chao Qian, Ke Tang
- Abstract要約: 本稿では,ハイドラテキストと呼ばれる新しいマルチ最適化手法を提案する。
スコアベースと意思決定ベースの両方で,HydraTextの有効性を示す。
人的評価実験により,HydraTextが作成した逆数例は妥当性と自然性を良好に維持していることが示された。
- 参考スコア(独自算出の注目度): 38.79258616735631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of adversarial textual attack has significantly grown over the last
years, where the commonly considered objective is to craft adversarial examples
that can successfully fool the target models. However, the imperceptibility of
attacks, which is also an essential objective, is often left out by previous
studies. In this work, we advocate considering both objectives at the same
time, and propose a novel multi-optimization approach (dubbed HydraText) with
provable performance guarantee to achieve successful attacks with high
imperceptibility. We demonstrate the efficacy of HydraText through extensive
experiments under both score-based and decision-based settings, involving five
modern NLP models across five benchmark datasets. In comparison to existing
state-of-the-art attacks, HydraText consistently achieves simultaneously higher
success rates, lower modification rates, and higher semantic similarity to the
original texts. A human evaluation study shows that the adversarial examples
crafted by HydraText maintain validity and naturality well. Finally, these
examples also exhibit good transferability and can bring notable robustness
improvement to the target models by adversarial training.
- Abstract(参考訳): 敵のテキスト攻撃の分野は近年大きく成長しており、一般的に見なされる目的は、ターゲットモデルをうまく騙すことができる敵の例を作ることである。
しかし、本質的な目的である攻撃の不可避性は、しばしば先行研究から除外される。
そこで本研究では,両目的を同時に考慮し,高いインプセプティビリティで攻撃を成功させるための性能保証を実現した,新たなマルチ最適化手法(dubed hydratext)を提案する。
我々は5つのベンチマークデータセットにまたがる5つの最新のNLPモデルを含むスコアベースおよび決定ベース設定の広範な実験を通じて、HydraTextの有効性を実証する。
既存の最先端攻撃と比較して、hydratextは一貫して高い成功率、低い修正率、そして元のテキストとのセマンティックな類似性を同時に達成している。
人的評価実験により,HydraTextが作成した逆数例は妥当性と自然性を良好に維持していることが示された。
最後に、これらの例は良好な伝達性を示し、敵の訓練によってターゲットモデルに顕著な堅牢性をもたらす。
関連論文リスト
- Asymmetric Bias in Text-to-Image Generation with Adversarial Attacks [23.940207705019777]
本稿では、攻撃成功率(ASR)に関連する要因の分析に焦点をあてる。
敵接尾辞と2つの勾配に基づく攻撃アルゴリズムを用いた新たな攻撃目標であるエンティティスワップを導入する。
敵の攻撃で成功確率が60%になる状況と、この確率が5%以下に低下する状況を見いだす。
論文 参考訳(メタデータ) (2023-12-22T05:10:32Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - An Extensive Study on Adversarial Attack against Pre-trained Models of
Code [14.948361027395748]
Transformer-based pre-trained code (PTMC) は広く利用されており、多くのミッションクリティカルなアプリケーションで最先端のパフォーマンスを実現している。
識別子の置換やコーディングスタイルの変換によって、敵の攻撃に弱い可能性がある。
本研究は,5つの対人攻撃アプローチを3つの観点から体系的に分析する。
論文 参考訳(メタデータ) (2023-11-13T18:48:54Z) - Revisiting DeepFool: generalization and improvement [17.714671419826715]
我々は,有効性と計算効率のバランスを崩す新たな敵攻撃群を導入する。
提案手法は,大規模モデルのロバスト性の評価にも適している。
論文 参考訳(メタデータ) (2023-03-22T11:49:35Z) - The Space of Adversarial Strategies [6.295859509997257]
機械学習モデルにおける最悪のケース動作を誘発するインプットである逆例は、過去10年間に広く研究されてきた。
最悪の場合(すなわち最適な)敵を特徴づける体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-09T20:53:11Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - What You See is Not What the Network Infers: Detecting Adversarial
Examples Based on Semantic Contradiction [14.313178290347293]
敵対的な例(AE)は、ディープニューラルネットワーク(DNN)の安全クリティカルドメインへの応用に深刻な脅威をもたらす。
本稿では,AEの本質に基づいた新しいAE検出フレームワークを提案する。
ContraNetは、特にアダプティブアタックにおいて、既存のソリューションよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-01-24T13:15:31Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。