論文の概要: Targeted Adversarial Attacks against Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2303.01068v1
- Date: Thu, 2 Mar 2023 08:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 15:23:41.115785
- Title: Targeted Adversarial Attacks against Neural Machine Translation
- Title(参考訳): ニューラルネットワーク翻訳に対する標的敵攻撃
- Authors: Sahar Sadrizadeh, AmirHossein Dabiri Aghdam, Ljiljana Dolamic, Pascal
Frossard
- Abstract要約: 我々はNMTモデルに対する新たな敵攻撃を提案する。
私たちの攻撃は、75%以上の文の翻訳にキーワードを挿入することに成功しました。
- 参考スコア(独自算出の注目度): 44.04452616807661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Machine Translation (NMT) systems are used in various applications.
However, it has been shown that they are vulnerable to very small perturbations
of their inputs, known as adversarial attacks. In this paper, we propose a new
targeted adversarial attack against NMT models. In particular, our goal is to
insert a predefined target keyword into the translation of the adversarial
sentence while maintaining similarity between the original sentence and the
perturbed one in the source domain. To this aim, we propose an optimization
problem, including an adversarial loss term and a similarity term. We use
gradient projection in the embedding space to craft an adversarial sentence.
Experimental results show that our attack outperforms Seq2Sick, the other
targeted adversarial attack against NMT models, in terms of success rate and
decrease in translation quality. Our attack succeeds in inserting a keyword
into the translation for more than 75% of sentences while similarity with the
original sentence stays preserved.
- Abstract(参考訳): ニューラルマシン翻訳(nmt)システムは様々な用途で使われている。
しかし、それらは敵の攻撃として知られる入力の非常に小さな摂動に弱いことが示されている。
本論文では,NMTモデルに対する新たな敵攻撃を提案する。
特に,原文と摂動文との類似性を維持しつつ,既定の目標キーワードを逆文の翻訳に挿入することが目的である。
そこで本研究では,逆損失項と類似項を含む最適化問題を提案する。
埋め込み空間における勾配投影を用いて逆文を作成する。
実験の結果,NMTモデルに対する他の標的攻撃であるSeq2Sickは,成功率や翻訳品質の低下という点で優れていた。
この攻撃は、75%以上の文に対してキーワードを翻訳に挿入することに成功し、原文との類似性は維持される。
関連論文リスト
- Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - A Classification-Guided Approach for Adversarial Attacks against Neural
Machine Translation [66.58025084857556]
我々は,分類器によって誘導されるNMTシステムに対する新たな敵攻撃フレームワークであるACTを紹介する。
本攻撃では,翻訳が本来の翻訳と異なるクラスに属する意味保存的敵の例を作成することを目的としている。
攻撃に対するNMTモデルの堅牢性を評価するため,既存のブラックボックス単語置換攻撃の強化を提案する。
論文 参考訳(メタデータ) (2023-08-29T12:12:53Z) - A Relaxed Optimization Approach for Adversarial Attacks against Neural
Machine Translation Models [44.04452616807661]
本稿では,ニューラルネットワーク翻訳(NMT)モデルに対する最適化に基づく逆攻撃を提案する。
実験の結果,NMTモデルの翻訳品質は有意に低下した。
我々の攻撃は、成功率、類似性保存、翻訳品質への影響、トークンエラー率の点で、ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-06-14T13:13:34Z) - TransFool: An Adversarial Attack against Neural Machine Translation
Models [49.50163349643615]
敵攻撃に対するニューラルネットワーク翻訳(NMT)モデルの脆弱性を調査し,TransFoolと呼ばれる新たな攻撃アルゴリズムを提案する。
クリーンなサンプルと高いレベルのセマンティックな類似性を保ったソースコード言語で、流動的な逆の例を生成する。
自動的および人的評価に基づいて、TransFoolは、既存の攻撃と比較して成功率、意味的類似性、流布率の改善につながる。
論文 参考訳(メタデータ) (2023-02-02T08:35:34Z) - Block-Sparse Adversarial Attack to Fool Transformer-Based Text
Classifiers [49.50163349643615]
本稿では,変圧器を用いたテキスト分類器に対して,勾配に基づく逆攻撃を提案する。
実験結果から, 文の意味を抑えながら, GPT-2の精度を5%以下に抑えることができた。
論文 参考訳(メタデータ) (2022-03-11T14:37:41Z) - Putting words into the system's mouth: A targeted attack on neural
machine translation using monolingual data poisoning [50.67997309717586]
本稿では、悪意のある敵が、バックトランスレーションを用いて訓練されたシステムのトレーニングセットに、モノリンガルテキストの少量の有毒サンプルを挿入する中毒攻撃を提案する。
このサンプルは、パドリング誤報のような特定の標的となる翻訳行動を引き起こすように設計されている。
有毒な例を作るための2つの方法を示し、トレーニングセットの0.02%にしか満たない少数の事例しか、攻撃を成功させるには不十分であることを示した。
論文 参考訳(メタデータ) (2021-07-12T08:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。