論文の概要: TransFool: An Adversarial Attack against Neural Machine Translation
Models
- arxiv url: http://arxiv.org/abs/2302.00944v2
- Date: Fri, 16 Jun 2023 13:24:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 17:55:13.799586
- Title: TransFool: An Adversarial Attack against Neural Machine Translation
Models
- Title(参考訳): transfool: ニューラルネットワークの翻訳モデルに対する敵対的攻撃
- Authors: Sahar Sadrizadeh, Ljiljana Dolamic, Pascal Frossard
- Abstract要約: 敵攻撃に対するニューラルネットワーク翻訳(NMT)モデルの脆弱性を調査し,TransFoolと呼ばれる新たな攻撃アルゴリズムを提案する。
クリーンなサンプルと高いレベルのセマンティックな類似性を保ったソースコード言語で、流動的な逆の例を生成する。
自動的および人的評価に基づいて、TransFoolは、既存の攻撃と比較して成功率、意味的類似性、流布率の改善につながる。
- 参考スコア(独自算出の注目度): 49.50163349643615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have been shown to be vulnerable to small perturbations
of their inputs, known as adversarial attacks. In this paper, we investigate
the vulnerability of Neural Machine Translation (NMT) models to adversarial
attacks and propose a new attack algorithm called TransFool. To fool NMT
models, TransFool builds on a multi-term optimization problem and a gradient
projection step. By integrating the embedding representation of a language
model, we generate fluent adversarial examples in the source language that
maintain a high level of semantic similarity with the clean samples.
Experimental results demonstrate that, for different translation tasks and NMT
architectures, our white-box attack can severely degrade the translation
quality while the semantic similarity between the original and the adversarial
sentences stays high. Moreover, we show that TransFool is transferable to
unknown target models. Finally, based on automatic and human evaluations,
TransFool leads to improvement in terms of success rate, semantic similarity,
and fluency compared to the existing attacks both in white-box and black-box
settings. Thus, TransFool permits us to better characterize the vulnerability
of NMT models and outlines the necessity to design strong defense mechanisms
and more robust NMT systems for real-life applications.
- Abstract(参考訳): ディープニューラルネットワークは、敵攻撃として知られる入力の小さな摂動に弱いことが示されている。
本稿では,ニューラルネットワーク翻訳(NMT)モデルの敵攻撃に対する脆弱性を調査し,TransFoolと呼ばれる新たな攻撃アルゴリズムを提案する。
NMTモデルを騙すため、TransFoolは多項最適化問題と勾配投影ステップの上に構築されている。
言語モデルの埋め込み表現を統合することで、クリーンなサンプルと高いレベルのセマンティックな類似性を保ちながら、ソース言語に流動的な逆の例を生成する。
実験の結果,異なる翻訳タスクやNTTアーキテクチャでは,原文と逆文のセマンティックな類似性が高いまま,翻訳品質を著しく低下させることができることがわかった。
さらに,TransFoolは未知のターゲットモデルに転送可能であることを示す。
最後に、自動的および人的評価に基づいて、transfoolは、ホワイトボックスとブラックボックスの両方の既存の攻撃と比較して、成功率、意味的類似性、そして流動性の改善をもたらす。
そこでTransFoolは,NMTモデルの脆弱性をより正確に評価し,より強力な防御機構とより堅牢なNMTシステムの設計の必要性を概説する。
関連論文リスト
- NMT-Obfuscator Attack: Ignore a sentence in translation with only one word [54.22817040379553]
我々はNMTモデルに対する新たなタイプの敵攻撃を提案する。
我々の攻撃は、NMTモデルに入力の第2部を50%以上のケースで無視させることに成功した。
論文 参考訳(メタデータ) (2024-11-19T12:55:22Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - A Classification-Guided Approach for Adversarial Attacks against Neural
Machine Translation [66.58025084857556]
我々は,分類器によって誘導されるNMTシステムに対する新たな敵攻撃フレームワークであるACTを紹介する。
本攻撃では,翻訳が本来の翻訳と異なるクラスに属する意味保存的敵の例を作成することを目的としている。
攻撃に対するNMTモデルの堅牢性を評価するため,既存のブラックボックス単語置換攻撃の強化を提案する。
論文 参考訳(メタデータ) (2023-08-29T12:12:53Z) - A Relaxed Optimization Approach for Adversarial Attacks against Neural
Machine Translation Models [44.04452616807661]
本稿では,ニューラルネットワーク翻訳(NMT)モデルに対する最適化に基づく逆攻撃を提案する。
実験の結果,NMTモデルの翻訳品質は有意に低下した。
我々の攻撃は、成功率、類似性保存、翻訳品質への影響、トークンエラー率の点で、ベースラインを上回っている。
論文 参考訳(メタデータ) (2023-06-14T13:13:34Z) - Targeted Adversarial Attacks against Neural Machine Translation [44.04452616807661]
我々はNMTモデルに対する新たな敵攻撃を提案する。
私たちの攻撃は、75%以上の文の翻訳にキーワードを挿入することに成功しました。
論文 参考訳(メタデータ) (2023-03-02T08:43:30Z) - Modeling Coverage for Non-Autoregressive Neural Machine Translation [9.173385214565451]
本稿では,トークンレベルのカバレッジ反復改良機構と文レベルのカバレッジ契約により,カバレッジ情報を直接モデル化するための新しいカバレッジNATを提案する。
WMT14 En-De および WMT16 En-Ro 翻訳タスクの実験結果から,本手法はこれらの誤りを軽減し,ベースラインシステムに対して強い改善が達成できることが示された。
論文 参考訳(メタデータ) (2021-04-24T07:33:23Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z) - Imitation Attacks and Defenses for Black-box Machine Translation Systems [86.92681013449682]
ブラックボックス機械翻訳(MT)システムは高い商業価値を持ち、エラーはコストがかかる。
MTシステムはモノリンガル文を問合せし,その出力を模倣する訓練モデルを用いて盗むことができることを示す。
本稿では,模倣モデルの最適化を誤指示するために,翻訳出力を変更するディフェンスを提案する。
論文 参考訳(メタデータ) (2020-04-30T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。