論文の概要: Expanding Scope: Adapting English Adversarial Attacks to Chinese
- arxiv url: http://arxiv.org/abs/2306.04874v1
- Date: Thu, 8 Jun 2023 02:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 16:54:43.447263
- Title: Expanding Scope: Adapting English Adversarial Attacks to Chinese
- Title(参考訳): 拡大するスコープ:英語の逆襲を中国語に適応させる
- Authors: Hanyu Liu, Chengyuan Cai, Yanjun Qi
- Abstract要約: 本稿では,SOTA攻撃アルゴリズムを中国語に適応させる方法について検討する。
実験の結果,これまで英語NLPに適用されていた攻撃手法は,中国語で高品質な敵の例を生成できることがわかった。
さらに, 生成した逆数例が高頻度でセマンティック一貫性が得られることを示す。
- 参考スコア(独自算出の注目度): 11.032727439758661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have revealed that NLP predictive models are vulnerable to
adversarial attacks. Most existing studies focused on designing attacks to
evaluate the robustness of NLP models in the English language alone. Literature
has seen an increasing need for NLP solutions for other languages. We,
therefore, ask one natural question: whether state-of-the-art (SOTA) attack
methods generalize to other languages. This paper investigates how to adapt
SOTA adversarial attack algorithms in English to the Chinese language. Our
experiments show that attack methods previously applied to English NLP can
generate high-quality adversarial examples in Chinese when combined with proper
text segmentation and linguistic constraints. In addition, we demonstrate that
the generated adversarial examples can achieve high fluency and semantic
consistency by focusing on the Chinese language's morphology and phonology,
which in turn can be used to improve the adversarial robustness of Chinese NLP
models.
- Abstract(参考訳): 最近の研究では、NLP予測モデルが敵攻撃に弱いことが示されている。
既存の研究の多くは、英語単独でNLPモデルの堅牢性を評価するために攻撃を設計することに焦点を当てている。
文学は他の言語に対するnlpソリューションの必要性が高まっている。
そこで我々は,最先端攻撃法(SOTA)が他の言語に一般化するかどうかという,自然な疑問を提起する。
本稿では,SOTA攻撃アルゴリズムを中国語に適応させる方法について検討する。
実験の結果,従来英語NLPに適用されていた攻撃手法は,適切なテキストセグメンテーションや言語制約と組み合わせることで,中国語の高品質な敵例を生成できることがわかった。
さらに, 生成した逆数例は, 中国語の形態や音韻に着目して, 高い頻度と意味的整合性を実現し, 中国語のNLPモデルの対数ロバスト性向上に有効であることを示す。
関連論文リスト
- Breaking Boundaries: Investigating the Effects of Model Editing on Cross-linguistic Performance [6.907734681124986]
本稿では,多言語文脈における知識編集技術を検討することにより,言語的平等の必要性を戦略的に識別する。
Mistral, TowerInstruct, OpenHathi, Tamil-Llama, Kan-Llamaなどのモデルの性能を,英語,ドイツ語,フランス語,イタリア語,スペイン語,ヒンディー語,タミル語,カンナダ語を含む言語で評価した。
論文 参考訳(メタデータ) (2024-06-17T01:54:27Z) - Enhance Robustness of Language Models Against Variation Attack through Graph Integration [28.291064456532517]
文字変動攻撃に対する言語モデルのロバスト性を高めるための新しい手法であるCHINese vAriatioN Graph Enhancementを提案する。
CHANGE は PLM の逆操作テキストの解釈を本質的に強化する。
多数のNLPタスクで実施された実験は、CHANGEが敵の攻撃と戦う際に、現在の言語モデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-04-18T09:04:39Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - A Classification-Guided Approach for Adversarial Attacks against Neural
Machine Translation [66.58025084857556]
我々は,分類器によって誘導されるNMTシステムに対する新たな敵攻撃フレームワークであるACTを紹介する。
本攻撃では,翻訳が本来の翻訳と異なるクラスに属する意味保存的敵の例を作成することを目的としている。
攻撃に対するNMTモデルの堅牢性を評価するため,既存のブラックボックス単語置換攻撃の強化を提案する。
論文 参考訳(メタデータ) (2023-08-29T12:12:53Z) - Lost In Translation: Generating Adversarial Examples Robust to
Round-Trip Translation [66.33340583035374]
本研究は, ラウンドトリップ翻訳における現在のテキスト対逆攻撃の堅牢性に関する包括的研究である。
筆者らは,現在最先端のテキストベースの6つの敵攻撃が,ラウンドトリップ翻訳後の有効性を維持していないことを実証した。
本稿では,機械翻訳を逆例生成のプロセスに組み込むことにより,この問題に対する介入に基づく解決策を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:43Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Language Models are Few-shot Multilingual Learners [66.11011385895195]
我々は、非英語言語における多言語分類を行う際に、GPTモデルとT5モデルの多言語的スキルを評価する。
文脈としての英語の例を見ると、事前学習された言語モデルは、英語のテストサンプルだけでなく、英語以外のサンプルも予測できることが示されている。
論文 参考訳(メタデータ) (2021-09-16T03:08:22Z) - Towards Evaluating the Robustness of Chinese BERT Classifiers [19.06256105080416]
BERTをベースとした分類器に対して,中国における新たなチャレベル攻撃法を提案する。
実験の結果、中国のニュースデータセットの分類精度は91.8%から0%に低下した。
論文 参考訳(メタデータ) (2020-04-07T23:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。