論文の概要: Sentiment Perception Adversarial Attacks on Neural Machine Translation
Systems
- arxiv url: http://arxiv.org/abs/2305.01437v2
- Date: Sun, 25 Jun 2023 01:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 23:01:31.815717
- Title: Sentiment Perception Adversarial Attacks on Neural Machine Translation
Systems
- Title(参考訳): ニューラルマシン翻訳システムにおける感情知覚相反攻撃
- Authors: Vyas Raina and Mark Gales
- Abstract要約: 敵の攻撃では、入力に対する不可避な変更はシステムの出力において望ましくない変更を引き起こす可能性がある。
本研究では,NMTシステムに対する敵攻撃を,出力知覚の観点から検討する。
実験により、NMTシステムの出力シーケンスの感情知覚は、入力シーケンスに対する小さな受容不能な変化で著しく変化できることが示された。
- 参考スコア(独自算出の注目度): 1.4213973379473654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advent of deep learning methods, Neural Machine Translation (NMT)
systems have become increasingly powerful. However, deep learning based systems
are susceptible to adversarial attacks, where imperceptible changes to the
input can cause undesirable changes at the output of the system. To date there
has been little work investigating adversarial attacks on sequence-to-sequence
systems, such as NMT models. Previous work in NMT has examined attacks with the
aim of introducing target phrases in the output sequence. In this work,
adversarial attacks for NMT systems are explored from an output perception
perspective. Thus the aim of an attack is to change the perception of the
output sequence, without altering the perception of the input sequence. For
example, an adversary may distort the sentiment of translated reviews to have
an exaggerated positive sentiment. In practice it is challenging to run
extensive human perception experiments, so a proxy deep-learning classifier
applied to the NMT output is used to measure perception changes. Experiments
demonstrate that the sentiment perception of NMT systems' output sequences can
be changed significantly with small imperceptible changes to input sequences.
- Abstract(参考訳): ディープラーニング手法の出現に伴い、ニューラルネットワーク翻訳(NMT)システムはますます強力になっている。
しかし、深層学習に基づくシステムは敵攻撃の影響を受けやすいため、入力に対する非受容的な変更はシステムの出力において望ましくない変更を引き起こす可能性がある。
NMTモデルのようなシーケンス・ツー・シーケンス・システムに対する敵攻撃を調査する研究はほとんど行われていない。
NMTの以前の研究は、ターゲットフレーズを出力シーケンスに導入する目的で攻撃を調査してきた。
本研究では,NMTシステムに対する敵攻撃を,出力知覚の観点から検討する。
したがって、攻撃の目的は、入力シーケンスの知覚を変えることなく、出力シーケンスの知覚を変更することである。
例えば、敵は翻訳されたレビューの感情を歪め、誇張されたポジティブな感情を持つ。
実際に、広範に人間の知覚実験を行うことは困難であり、NMT出力に適用されたプロキシディープラーニング分類器を用いて知覚の変化を測定する。
実験により、NMTシステムの出力シーケンスの感情知覚は、入力シーケンスに対する小さな受容不可能な変化で大きく変化できることが示された。
関連論文リスト
- NMT-Obfuscator Attack: Ignore a sentence in translation with only one word [54.22817040379553]
我々はNMTモデルに対する新たなタイプの敵攻撃を提案する。
我々の攻撃は、NMTモデルに入力の第2部を50%以上のケースで無視させることに成功した。
論文 参考訳(メタデータ) (2024-11-19T12:55:22Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - A Classification-Guided Approach for Adversarial Attacks against Neural
Machine Translation [66.58025084857556]
我々は,分類器によって誘導されるNMTシステムに対する新たな敵攻撃フレームワークであるACTを紹介する。
本攻撃では,翻訳が本来の翻訳と異なるクラスに属する意味保存的敵の例を作成することを目的としている。
攻撃に対するNMTモデルの堅牢性を評価するため,既存のブラックボックス単語置換攻撃の強化を提案する。
論文 参考訳(メタデータ) (2023-08-29T12:12:53Z) - TransFool: An Adversarial Attack against Neural Machine Translation
Models [49.50163349643615]
敵攻撃に対するニューラルネットワーク翻訳(NMT)モデルの脆弱性を調査し,TransFoolと呼ばれる新たな攻撃アルゴリズムを提案する。
クリーンなサンプルと高いレベルのセマンティックな類似性を保ったソースコード言語で、流動的な逆の例を生成する。
自動的および人的評価に基づいて、TransFoolは、既存の攻撃と比較して成功率、意味的類似性、流布率の改善につながる。
論文 参考訳(メタデータ) (2023-02-02T08:35:34Z) - Physical Passive Patch Adversarial Attacks on Visual Odometry Systems [6.391337032993737]
本研究では,視覚計測に基づく自律ナビゲーションシステムに対するパッチ対向攻撃について検討する。
本研究では,現場にパッチ対向攻撃を配置することにより,視覚計測モデルの誤差マージンを著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-07-11T14:41:06Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - A Targeted Attack on Black-Box Neural Machine Translation with Parallel
Data Poisoning [60.826628282900955]
ブラックボックスNMTシステムに対する標的攻撃は、並列トレーニングデータのごく一部を毒殺することで実現可能であることを示す。
この攻撃は、システムのトレーニングデータを形成するために、クローリングされたWebドキュメントのターゲットの破損によって現実的に実現可能であることを示す。
大量の並列データで訓練された最先端のシステムでさえ、この攻撃は驚くほど低予算で(50%以上の成功率で)成功している。
論文 参考訳(メタデータ) (2020-11-02T01:52:46Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。