論文の概要: ENJ: Optimizing Noise with Genetic Algorithms to Jailbreak LSMs
- arxiv url: http://arxiv.org/abs/2509.11128v1
- Date: Sun, 14 Sep 2025 06:39:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.934776
- Title: ENJ: Optimizing Noise with Genetic Algorithms to Jailbreak LSMs
- Title(参考訳): ENJ:遺伝的アルゴリズムで騒音を最適化してLSMを脱獄させる
- Authors: Yibo Zhang, Liang Lin,
- Abstract要約: 進化的騒音ジェイルブレイク(ENJ)
本稿では,環境騒音を受動的干渉から積極的に最適化可能な攻撃キャリアへ変換する遺伝的アルゴリズムを提案する。
複数の主流音声モデルに対する実験により、ENJの攻撃効果は既存のベースライン法よりもかなり優れていることが示された。
- 参考スコア(独自算出の注目度): 61.09812971042288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread application of Large Speech Models (LSMs) has made their security risks increasingly prominent. Traditional speech adversarial attack methods face challenges in balancing effectiveness and stealth. This paper proposes Evolutionary Noise Jailbreak (ENJ), which utilizes a genetic algorithm to transform environmental noise from a passive interference into an actively optimizable attack carrier for jailbreaking LSMs. Through operations such as population initialization, crossover fusion, and probabilistic mutation, this method iteratively evolves a series of audio samples that fuse malicious instructions with background noise. These samples sound like harmless noise to humans but can induce the model to parse and execute harmful commands. Extensive experiments on multiple mainstream speech models show that ENJ's attack effectiveness is significantly superior to existing baseline methods. This research reveals the dual role of noise in speech security and provides new critical insights for model security defense in complex acoustic environments.
- Abstract(参考訳): LSM(Large Speech Models)の広範な適用により、セキュリティ上のリスクがますます顕著になっている。
従来の音声敵対攻撃法は、有効性と盗聴のバランスをとる上で困難に直面している。
本稿では,環境騒音を受動的干渉からアクティブに最適化可能な攻撃キャリアへ変換する遺伝的アルゴリズムを用いた進化型ノイズジェイルブレイク(ENJ)を提案する。
集団初期化,クロスオーバー融合,確率的突然変異などの操作を通じて,悪質な指示を背景雑音と融合させる一連のオーディオサンプルを反復的に進化させる。
これらのサンプルは人間にとって無害な騒音のように聞こえるが、有害なコマンドを解析し実行するためのモデルを誘導することができる。
複数の主流音声モデルに対する大規模な実験により、ENJの攻撃効果は既存のベースライン法よりもかなり優れていることが示された。
本研究は、音声のセキュリティにおけるノイズの二重の役割を明らかにし、複雑な音響環境におけるモデルセキュリティ防衛のための新たな重要な洞察を提供する。
関連論文リスト
- When Good Sounds Go Adversarial: Jailbreaking Audio-Language Models with Benign Inputs [1.911526481015]
本稿では,WhisperInjectについて紹介する。
最先端のオーディオ言語モデルを操作して有害なコンテンツを生成することができる。
提案手法は,人間の聴取者に不慣れな音声入力において,知覚不能な摂動を用いる。
論文 参考訳(メタデータ) (2025-08-05T12:14:01Z) - Unveiling Hidden Vulnerabilities in Digital Human Generation via Adversarial Attacks [14.356235723912564]
本稿では,デジタル・ヒューマン・ジェネレーション・モデルを効果的に実現可能な,敵対的な例を生成するための新しいフレームワークを提案する。
本手法では、可変オートエンコーダ(VAE)と制御ネットを利用して、元の画像の特徴に合わせた多様なターゲットノイズを生成する。
大規模な実験では、TBAの優位性を示し、推定誤差が41.0%増加し、平均改善率は17.0%に達した。
論文 参考訳(メタデータ) (2025-04-24T11:42:10Z) - Effective Noise-aware Data Simulation for Domain-adaptive Speech Enhancement Leveraging Dynamic Stochastic Perturbation [25.410770364140856]
クロスドメイン音声強調(SE)は、目に見えない対象領域におけるノイズや背景情報の不足により、しばしば深刻な課題に直面している。
本研究では,ノイズ抽出技術とGANを利用した新しいデータシミュレーション手法を提案する。
本研究では,動的摂動の概念を導入し,制御された摂動を推論中の雑音埋め込みに注入する。
論文 参考訳(メタデータ) (2024-09-03T02:29:01Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - High-Fidelity Speech Synthesis with Minimal Supervision: All Using
Diffusion Models [56.00939852727501]
最小教師付き音声合成は、2種類の離散音声表現を組み合わせることでTSを分離する。
非自己回帰フレームワークは、制御可能性を高め、持続拡散モデルは、多様化された韻律表現を可能にする。
論文 参考訳(メタデータ) (2023-09-27T09:27:03Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。