論文の概要: Adversarial Text Generation with Dynamic Contextual Perturbation
- arxiv url: http://arxiv.org/abs/2506.09148v1
- Date: Tue, 10 Jun 2025 18:02:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:01.847323
- Title: Adversarial Text Generation with Dynamic Contextual Perturbation
- Title(参考訳): 動的テクスチャ摂動を用いた逆テキスト生成
- Authors: Hetvi Waghela, Jaydip Sen, Sneha Rakshit, Subhasis Dasgupta,
- Abstract要約: 自然言語処理(NLP)モデルに対する敵対的な攻撃は、入力テキストに微妙な摂動を導入することで脆弱性を露呈する。
動的文脈摂動(DCP)という新たなテキスト攻撃手法を提案する。
DCPは、文、段落、文書にまたがる文脈対応の摂動を生成し、意味的忠実さと流布性を確保する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on Natural Language Processing (NLP) models expose vulnerabilities by introducing subtle perturbations to input text, often leading to misclassification while maintaining human readability. Existing methods typically focus on word-level or local text segment alterations, overlooking the broader context, which results in detectable or semantically inconsistent perturbations. We propose a novel adversarial text attack scheme named Dynamic Contextual Perturbation (DCP). DCP dynamically generates context-aware perturbations across sentences, paragraphs, and documents, ensuring semantic fidelity and fluency. Leveraging the capabilities of pre-trained language models, DCP iteratively refines perturbations through an adversarial objective function that balances the dual objectives of inducing model misclassification and preserving the naturalness of the text. This comprehensive approach allows DCP to produce more sophisticated and effective adversarial examples that better mimic natural language patterns. Our experimental results, conducted on various NLP models and datasets, demonstrate the efficacy of DCP in challenging the robustness of state-of-the-art NLP systems. By integrating dynamic contextual analysis, DCP significantly enhances the subtlety and impact of adversarial attacks. This study highlights the critical role of context in adversarial attacks and lays the groundwork for creating more robust NLP systems capable of withstanding sophisticated adversarial strategies.
- Abstract(参考訳): 自然言語処理(NLP)モデルに対する敵対的な攻撃は、入力テキストに微妙な摂動を導入することで脆弱性を露呈する。
既存の手法は、通常、単語レベルまたは局所的なテキストセグメントの変更に焦点を当て、より広い文脈を見渡して、検出可能または意味的に一貫性のない摂動をもたらす。
本研究では,動的文脈摂動(DCP)と呼ばれる新たなテキスト攻撃手法を提案する。
DCPは、文、段落、文書にまたがる文脈認識の摂動を動的に生成し、意味的忠実さと流布性を確保する。
事前訓練された言語モデルの能力を活用して、DCPは、モデルの誤分類を誘発し、テキストの自然性を保存するという2つの目的のバランスをとる対向目的関数を通じて、摂動を反復的に洗練する。
この包括的なアプローチにより、DCPは自然言語パターンをよりうまく模倣する、より洗練された効果的な敵の例を作成できる。
各種NLPモデルとデータセットを用いて実験を行い, 現状のNLPシステムの堅牢性に挑戦する上で, DCPの有効性を実証した。
動的文脈解析を統合することで、DCPは敵攻撃の微妙さと影響を著しく強化する。
本研究は、敵攻撃における文脈の重要な役割を強調し、高度な敵戦略に耐えうるより堅牢なNLPシステムを構築するための基盤となる。
関連論文リスト
- Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Enhance Robustness of Language Models Against Variation Attack through Graph Integration [28.291064456532517]
文字変動攻撃に対する言語モデルのロバスト性を高めるための新しい手法であるCHINese vAriatioN Graph Enhancementを提案する。
CHANGE は PLM の逆操作テキストの解釈を本質的に強化する。
多数のNLPタスクで実施された実験は、CHANGEが敵の攻撃と戦う際に、現在の言語モデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-04-18T09:04:39Z) - Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - Improving Adversarial Transferability of Vision-Language Pre-training Models through Collaborative Multimodal Interaction [22.393624206051925]
既存の研究は、ビジョンランゲージ事前訓練モデルに対する攻撃の伝達可能性を研究することはめったにない。
我々はCMI-Attack(Collaborative Multimodal Interaction Attack)と呼ばれる新しい攻撃を提案する。
CMI-AttackはALBEFからTCL、textCLIP_textViT$と$textCLIP_textCNN$の転送成功率を8.11%-16.75%向上させる。
論文 参考訳(メタデータ) (2024-03-16T10:32:24Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - Phrase-level Textual Adversarial Attack with Label Preservation [34.42846737465045]
本稿では,フレーズレベルの摂動を通じて対数サンプルを生成するPhrase-Level Textual Adrial aTtack (PLAT)を提案する。
PLATは強力なベースラインよりも攻撃効率が優れ、ラベルの一貫性も優れている。
論文 参考訳(メタデータ) (2022-05-22T02:22:38Z) - Contextualized Perturbation for Textual Adversarial Attack [56.370304308573274]
逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
論文 参考訳(メタデータ) (2020-09-16T06:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。