論文の概要: NMT-Obfuscator Attack: Ignore a sentence in translation with only one word
- arxiv url: http://arxiv.org/abs/2411.12473v1
- Date: Tue, 19 Nov 2024 12:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:37:05.505608
- Title: NMT-Obfuscator Attack: Ignore a sentence in translation with only one word
- Title(参考訳): NMT-Obfuscator攻撃:1語のみの翻訳文を無視する
- Authors: Sahar Sadrizadeh, César Descalzo, Ljiljana Dolamic, Pascal Frossard,
- Abstract要約: 我々はNMTモデルに対する新たなタイプの敵攻撃を提案する。
我々の攻撃は、NMTモデルに入力の第2部を50%以上のケースで無視させることに成功した。
- 参考スコア(独自算出の注目度): 54.22817040379553
- License:
- Abstract: Neural Machine Translation systems are used in diverse applications due to their impressive performance. However, recent studies have shown that these systems are vulnerable to carefully crafted small perturbations to their inputs, known as adversarial attacks. In this paper, we propose a new type of adversarial attack against NMT models. In this attack, we find a word to be added between two sentences such that the second sentence is ignored and not translated by the NMT model. The word added between the two sentences is such that the whole adversarial text is natural in the source language. This type of attack can be harmful in practical scenarios since the attacker can hide malicious information in the automatic translation made by the target NMT model. Our experiments show that different NMT models and translation tasks are vulnerable to this type of attack. Our attack can successfully force the NMT models to ignore the second part of the input in the translation for more than 50% of all cases while being able to maintain low perplexity for the whole input.
- Abstract(参考訳): ニューラルネットワーク翻訳システムは、その優れた性能のため、様々なアプリケーションで使用されている。
しかし、最近の研究では、これらのシステムは敵攻撃として知られる入力に対して、慎重に小さな摂動に弱いことが示されている。
本論文では,NMTモデルに対する新たなタイプの敵攻撃を提案する。
この攻撃では、2つの文の間に付加される単語を見つけ、第2の文は無視され、NMTモデルでは翻訳されない。
2つの文の間に加えられた単語は、逆境のテキスト全体がソース言語で自然なものである。
攻撃者はターゲットNMTモデルによる自動翻訳で悪意のある情報を隠蔽できるため、このような攻撃は現実的なシナリオでは有害である。
実験の結果,異なるNMTモデルと翻訳タスクがこの種の攻撃に対して脆弱であることが確認された。
我々の攻撃は、NMTモデルに対して、全ケースの50%以上にわたって入力の第2部分を無視しつつ、入力全体の難易度を低く維持できるように強制することができる。
関連論文リスト
- A Classification-Guided Approach for Adversarial Attacks against Neural
Machine Translation [66.58025084857556]
我々は,分類器によって誘導されるNMTシステムに対する新たな敵攻撃フレームワークであるACTを紹介する。
本攻撃では,翻訳が本来の翻訳と異なるクラスに属する意味保存的敵の例を作成することを目的としている。
攻撃に対するNMTモデルの堅牢性を評価するため,既存のブラックボックス単語置換攻撃の強化を提案する。
論文 参考訳(メタデータ) (2023-08-29T12:12:53Z) - Targeted Adversarial Attacks against Neural Machine Translation [44.04452616807661]
我々はNMTモデルに対する新たな敵攻撃を提案する。
私たちの攻撃は、75%以上の文の翻訳にキーワードを挿入することに成功しました。
論文 参考訳(メタデータ) (2023-03-02T08:43:30Z) - TransFool: An Adversarial Attack against Neural Machine Translation
Models [49.50163349643615]
敵攻撃に対するニューラルネットワーク翻訳(NMT)モデルの脆弱性を調査し,TransFoolと呼ばれる新たな攻撃アルゴリズムを提案する。
クリーンなサンプルと高いレベルのセマンティックな類似性を保ったソースコード言語で、流動的な逆の例を生成する。
自動的および人的評価に基づいて、TransFoolは、既存の攻撃と比較して成功率、意味的類似性、流布率の改善につながる。
論文 参考訳(メタデータ) (2023-02-02T08:35:34Z) - Putting words into the system's mouth: A targeted attack on neural
machine translation using monolingual data poisoning [50.67997309717586]
本稿では、悪意のある敵が、バックトランスレーションを用いて訓練されたシステムのトレーニングセットに、モノリンガルテキストの少量の有毒サンプルを挿入する中毒攻撃を提案する。
このサンプルは、パドリング誤報のような特定の標的となる翻訳行動を引き起こすように設計されている。
有毒な例を作るための2つの方法を示し、トレーニングセットの0.02%にしか満たない少数の事例しか、攻撃を成功させるには不十分であることを示した。
論文 参考訳(メタデータ) (2021-07-12T08:07:09Z) - A Targeted Attack on Black-Box Neural Machine Translation with Parallel
Data Poisoning [60.826628282900955]
ブラックボックスNMTシステムに対する標的攻撃は、並列トレーニングデータのごく一部を毒殺することで実現可能であることを示す。
この攻撃は、システムのトレーニングデータを形成するために、クローリングされたWebドキュメントのターゲットの破損によって現実的に実現可能であることを示す。
大量の並列データで訓練された最先端のシステムでさえ、この攻撃は驚くほど低予算で(50%以上の成功率で)成功している。
論文 参考訳(メタデータ) (2020-11-02T01:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。