論文の概要: Style Attack Disguise: When Fonts Become a Camouflage for Adversarial Intent
- arxiv url: http://arxiv.org/abs/2510.19641v1
- Date: Wed, 22 Oct 2025 14:40:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.931244
- Title: Style Attack Disguise: When Fonts Become a Camouflage for Adversarial Intent
- Title(参考訳): ファウントが敵の攻撃相手のカモフラージュになるとき
- Authors: Yangshijie Zhang, Xinda Wang, Jialin Liu, Wenqiang Wang, Zhicong Ma, Xingxing Jia,
- Abstract要約: 我々は,スタイルベースアタック,スタイルアタック・ディグライズ(SAD)を提案する。
テキスト・ツー・イメージやテキスト・トゥ・音声生成といったマルチモーダルタスクに対するSADの潜在的な脅威を示す。
- 参考スコア(独自算出の注目度): 4.460307884296133
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With social media growth, users employ stylistic fonts and font-like emoji to express individuality, creating visually appealing text that remains human-readable. However, these fonts introduce hidden vulnerabilities in NLP models: while humans easily read stylistic text, models process these characters as distinct tokens, causing interference. We identify this human-model perception gap and propose a style-based attack, Style Attack Disguise (SAD). We design two sizes: light for query efficiency and strong for superior attack performance. Experiments on sentiment classification and machine translation across traditional models, LLMs, and commercial services demonstrate SAD's strong attack performance. We also show SAD's potential threats to multimodal tasks including text-to-image and text-to-speech generation.
- Abstract(参考訳): ソーシャルメディアの成長に伴い、ユーザーはスタイリスティックなフォントとフォントのような絵文字を使って個性を表現する。
しかしながら、これらのフォントはNLPモデルに隠れた脆弱性を導入しており、人間がスタイリスティックなテキストを読みやすい一方で、モデルはこれらの文字を異なるトークンとして処理し、干渉を引き起こす。
そこで我々は,この人間モデル認識ギャップを同定し,スタイルベースアタック,スタイルアタック・ディグライズ(SAD)を提案する。
クエリ効率のための光と、優れた攻撃性能のための強度の2つのサイズを設計する。
感情分類と従来のモデル、LLM、商用サービス間の機械翻訳の実験は、SADの強力な攻撃性能を示している。
また,テキスト・ツー・イメージやテキスト・トゥ・音声生成といったマルチモーダルタスクに対するSADの潜在的な脅威を示す。
関連論文リスト
- Enhancing Robustness of Autoregressive Language Models against Orthographic Attacks via Pixel-based Approach [51.95266411355865]
自己回帰言語モデルは、正書法攻撃に弱い。
この脆弱性は、サブワードトークン化器とその埋め込みに固有の語彙外問題に起因している。
本稿では,単語を個々の画像としてレンダリングすることで,テキストベースの埋め込みをピクセルベースの表現に置き換える,画素ベースの生成言語モデルを提案する。
論文 参考訳(メタデータ) (2025-08-28T20:48:38Z) - Web Artifact Attacks Disrupt Vision Language Models [61.59021920232986]
視覚言語モデル(VLM)は、大規模で軽量にキュレートされたWebデータセットに基づいて訓練されている。
意味概念と無関係な視覚信号の間に意図しない相関関係を学習する。
これまでの研究は、これらの相関関係をモデル予測を操作するための攻撃ベクトルとして武器化してきた。
非マッチングテキストとグラフィカル要素の両方を使ってモデルを誤解させる新しい操作のクラスである「アーティファクトベース」アタックを導入する。
論文 参考訳(メタデータ) (2025-03-17T18:59:29Z) - Emoti-Attack: Zero-Perturbation Adversarial Attacks on NLP Systems via Emoji Sequences [0.0]
本稿では,絵文字の操作を利用して,微妙で効果的な摂動を生成する新しい敵攻撃手法である絵文字・アタックを紹介する。
エモジ・アタックは、大型モデルと小型モデルの両方で強力な攻撃性能を達成し、NLPシステムの対向ロバスト性を高めるための有望な技術である。
論文 参考訳(メタデータ) (2025-02-24T18:20:18Z) - Jailbreak Vision Language Models via Bi-Modal Adversarial Prompt [60.54666043358946]
本稿では,テキストと視覚のプロンプトを協調的に最適化することにより,ジェイルブレイクを実行するバイモーダル・アドバイサル・プロンプト・アタック(BAP)を提案する。
特に,大規模言語モデルを用いてジェイルブレイクの失敗を分析し,テキストのプロンプトを洗練させるために連鎖推論を採用する。
論文 参考訳(メタデータ) (2024-06-06T13:00:42Z) - LLM Self Defense: By Self Examination, LLMs Know They Are Being Tricked [19.242818141154086]
大規模言語モデル(LLM)は高品質なテキスト生成に人気がある。
LLMは人的価値に合わせても有害なコンテンツを生成できる。
我々は、これらの攻撃を防御するための簡単なアプローチであるLSM Self Defenseを提案する。
論文 参考訳(メタデータ) (2023-08-14T17:54:10Z) - When Vision Fails: Text Attacks Against ViT and OCR [37.010684530076205]
テキストベースの機械学習モデルは、Unicodeベースの敵の新たなクラスに対して脆弱である。
理論上、OCRモデルは悪意のあるUnicode文字を無視し、モデルに入力される視覚的に正しい入力を抽出する。
これらの視覚的防御はこの種の攻撃を防げないことを示す。
論文 参考訳(メタデータ) (2023-06-12T11:26:08Z) - Two-in-One: A Model Hijacking Attack Against Text Generation Models [19.826236952700256]
我々は,異なるテキスト分類タスクを複数の世代にハイジャックできる新しいモデルハイジャック攻撃であるDittoを提案する。
提案手法は,Dittoを用いてテキスト生成モデルをハイジャックし,その利便性を損なうことなく実現可能であることを示す。
論文 参考訳(メタデータ) (2023-05-12T12:13:27Z) - Mind the Style of Text! Adversarial and Backdoor Attacks Based on Text
Style Transfer [49.67011295450601]
我々は,テキストスタイルの転送をベースとして,敵対的かつバックドア攻撃を行うための最初の試みを行う。
実験結果から,一般的なNLPモデルは,テキストスタイルの転送に基づく逆行攻撃とバックドア攻撃の両方に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-10-14T03:54:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。