論文の概要: Universal Acoustic Adversarial Attacks for Flexible Control of Speech-LLMs
- arxiv url: http://arxiv.org/abs/2505.14286v1
- Date: Tue, 20 May 2025 12:35:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.17422
- Title: Universal Acoustic Adversarial Attacks for Flexible Control of Speech-LLMs
- Title(参考訳): 音声LLMのフレキシブル制御のためのユニバーサルアコースティック・アタック
- Authors: Rao Ma, Mengjie Qian, Vyas Raina, Mark Gales, Kate Knill,
- Abstract要約: 音声のLLMに対するユニバーサルアコースティック・アタックについて検討する。
Qwen2-AudioとGranite-Speechには重大な脆弱性がある。
これは、より堅牢なトレーニング戦略の必要性を強調し、敵の攻撃に対する抵抗を改善している。
- 参考スコア(独自算出の注目度): 6.8285467057172555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The combination of pre-trained speech encoders with large language models has enabled the development of speech LLMs that can handle a wide range of spoken language processing tasks. While these models are powerful and flexible, this very flexibility may make them more vulnerable to adversarial attacks. To examine the extent of this problem, in this work we investigate universal acoustic adversarial attacks on speech LLMs. Here a fixed, universal, adversarial audio segment is prepended to the original input audio. We initially investigate attacks that cause the model to either produce no output or to perform a modified task overriding the original prompt. We then extend the nature of the attack to be selective so that it activates only when specific input attributes, such as a speaker gender or spoken language, are present. Inputs without the targeted attribute should be unaffected, allowing fine-grained control over the model outputs. Our findings reveal critical vulnerabilities in Qwen2-Audio and Granite-Speech and suggest that similar speech LLMs may be susceptible to universal adversarial attacks. This highlights the need for more robust training strategies and improved resistance to adversarial attacks.
- Abstract(参考訳): 事前学習された音声エンコーダと大きな言語モデルを組み合わせることで、幅広い言語処理タスクを処理できる音声LLMの開発が可能になった。
これらのモデルは強力で柔軟性があるが、この柔軟性によって敵の攻撃に対してより脆弱になる可能性がある。
本研究は,LLM音声に対する普遍的音響対向攻撃について検討する。
ここでは、元の入力オーディオに固定された、普遍的な、対向的なオーディオセグメントを前置する。
まず最初に、モデルが出力を発生させないか、または元のプロンプトをオーバーライドする修正されたタスクを実行するようにする攻撃を調査します。
次に、攻撃の性質を選択的に拡張し、話者の性別や音声言語のような特定の入力属性が存在する場合にのみ起動するようにします。
ターゲット属性のない入力は影響を受けず、モデル出力のきめ細かい制御を可能にする。
以上の結果から,Qwen2-Audio および Granite-Speech の致命的脆弱性が明らかとなり,LLM と類似した音声が普遍的敵対的攻撃の影響を受ける可能性が示唆された。
これは、より堅牢なトレーニング戦略の必要性を強調し、敵の攻撃に対する抵抗を改善している。
関連論文リスト
- "I am bad": Interpreting Stealthy, Universal and Robust Audio Jailbreaks in Audio-Language Models [0.9480364746270077]
本稿では,Audio-Language Models(ALMs)を対象とする音声ジェイルブレイクについて検討する。
我々は、プロンプト、タスク、さらにはベースオーディオサンプルをまたいで一般化する対向的摂動を構築する。
我々は、ALMがこれらの音声相手の例をどう解釈するかを分析し、知覚不能な一対一の有毒な音声を符号化する。
論文 参考訳(メタデータ) (2025-02-02T08:36:23Z) - DeSTA2: Developing Instruction-Following Speech Language Model Without Speech Instruction-Tuning Data [84.01401439030265]
最近のエンドツーエンド言語モデル(SLM)は、大規模言語モデル(LLM)の機能に拡張されている。
音声とテキストのペアデータを生成するための,シンプルで効果的な自動処理手法を提案する。
本モデルでは,音声教育データを必要としない音声関連タスクの汎用性を示す。
論文 参考訳(メタデータ) (2024-09-30T07:01:21Z) - Controlling Whisper: Universal Acoustic Adversarial Attacks to Control Speech Foundation Models [3.1511847280063696]
音声可能な基礎モデルは、適切なプロンプトを用いて自動音声認識以外のタスクを実行することができる。
音声プロンプト付き大規模言語モデルの開発により、さらに大きな制御オプションが生まれる可能性がある。
この柔軟性により、システムはモデル制御の敵攻撃の影響を受けやすいことが実証された。
論文 参考訳(メタデータ) (2024-07-05T13:04:31Z) - Muting Whisper: A Universal Acoustic Adversarial Attack on Speech Foundation Models [5.942307521138583]
モデル動作を操作するために,「特殊トークン」を敵攻撃によって利用することができることを示す。
本稿では,Whisper の $texttt|endoftext|>$ token の普遍的な音響的実現方法を提案する。
実験では、同じ0.64秒の対向音声セグメントが、ターゲットのWhisper ASRモデルを97%以上の音声サンプルでミュートできることを示した。
論文 参考訳(メタデータ) (2024-05-09T22:59:23Z) - Universal and Transferable Adversarial Attacks on Aligned Language
Models [118.41733208825278]
本稿では,アライメント言語モデルに反抗的な振る舞いを生じさせる,シンプルで効果的な攻撃手法を提案する。
驚いたことに、我々のアプローチによって生じる敵のプロンプトは、かなり伝達可能である。
論文 参考訳(メタデータ) (2023-07-27T17:49:12Z) - SpeechGen: Unlocking the Generative Power of Speech Language Models with
Prompts [108.04306136086807]
本稿では,SpeechGenと呼ばれる統合フレームワークを用いて,各種タスクの音声LMを刺激するための即時チューニングの適用について検討する。
提案した統合フレームワークは効率と有効性に大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-03T22:35:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。