論文の概要: LatentBreak: Jailbreaking Large Language Models through Latent Space Feedback
- arxiv url: http://arxiv.org/abs/2510.08604v1
- Date: Tue, 07 Oct 2025 09:40:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.101489
- Title: LatentBreak: Jailbreaking Large Language Models through Latent Space Feedback
- Title(参考訳): LatentBreak: 遅延スペースフィードバックによる大規模言語モデルの脱獄
- Authors: Raffaele Mura, Giorgio Piras, Kamilė Lukošiūtė, Maura Pintor, Amin Karbasi, Battista Biggio,
- Abstract要約: そこで我々は,ホワイトボックスのジェイルブレイク攻撃であるLatentBreakを提案する。
LatentBreakは入力プロンプト内の単語を意味的に等価なものに置き換え、プロンプトの初期意図を保存する。
我々の評価では、LatentBreakは短絡性のプロンプトを誘導し、競合するジェイルブレイクアルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 31.15245650762331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Jailbreaks are adversarial attacks designed to bypass the built-in safety mechanisms of large language models. Automated jailbreaks typically optimize an adversarial suffix or adapt long prompt templates by forcing the model to generate the initial part of a restricted or harmful response. In this work, we show that existing jailbreak attacks that leverage such mechanisms to unlock the model response can be detected by a straightforward perplexity-based filtering on the input prompt. To overcome this issue, we propose LatentBreak, a white-box jailbreak attack that generates natural adversarial prompts with low perplexity capable of evading such defenses. LatentBreak substitutes words in the input prompt with semantically-equivalent ones, preserving the initial intent of the prompt, instead of adding high-perplexity adversarial suffixes or long templates. These words are chosen by minimizing the distance in the latent space between the representation of the adversarial prompt and that of harmless requests. Our extensive evaluation shows that LatentBreak leads to shorter and low-perplexity prompts, thus outperforming competing jailbreak algorithms against perplexity-based filters on multiple safety-aligned models.
- Abstract(参考訳): ジェイルブレイク(Jailbreak)は、大規模言語モデルの組込み安全性メカニズムを回避すべく設計された敵攻撃である。
自動ジェイルブレイクは、典型的には敵の接尾辞を最適化するか、モデルに制限または有害な応答の初期部分を生成するように強制することで長いプロンプトテンプレートを適応させる。
本研究では,このような機構を利用してモデル応答をアンロックする既存のジェイルブレイク攻撃が,入力プロンプト上で直接パープレキシティに基づくフィルタリングによって検出可能であることを示す。
この問題を克服するために,我々は,このような防御を回避できる難易度が低い自然な逆転プロンプトを生成する,ホワイトボックスのジェイルブレイク攻撃であるLatentBreakを提案する。
LatentBreakは入力プロンプト内の単語を意味的に等価なものに置き換え、プロンプトの初期意図を保存する。
これらの単語は、敵のプロンプトの表現と無害な要求の表現の間の潜伏空間における距離を最小化することによって選択される。
我々の広範な評価は、LatentBreakが短絡性のプロンプトを誘導し、複数の安全に整合したモデルにおけるパープレキシティベースのフィルタに対して競合するジェイルブレイクアルゴリズムよりも優れていることを示している。
関連論文リスト
- Machine Learning for Detection and Analysis of Novel LLM Jailbreaks [3.2654923574107357]
大きな言語モデル(LLM)は、悪意のあるユーザが入力テキストの操作を通じて望ましくない応答を要求できるような、さまざまな脆弱性に悩まされる。
いわゆるジェイルブレイクプロンプトは、LLMを騙して安全ガードレールの設置を回避し、開発者のポリシーに受け入れられる応答を維持するように設計されている。
本研究では,異なる機械学習モデルを用いて,jailbreakプロンプトを真の用途と区別する能力について分析する。
論文 参考訳(メタデータ) (2025-10-02T03:55:29Z) - BaThe: Defense against the Jailbreak Attack in Multimodal Large Language Models by Treating Harmful Instruction as Backdoor Trigger [67.75420257197186]
本研究では,単純なジェイルブレイク防御機構である$textbfBaTheを提案する。
ジェイルブレイクバックドア攻撃は、手作りの弦と組み合わされた有害な命令をトリガーとして使用し、バックドアモデルが禁止された応答を生成する。
有害な命令がトリガーとして機能し、代わりにリジェクション応答をトリガー応答として設定すれば、バックドアモデルがジェイルブレイク攻撃に対して防御できると仮定する。
論文 参考訳(メタデータ) (2024-08-17T04:43:26Z) - AutoDAN: Interpretable Gradient-Based Adversarial Attacks on Large
Language Models [55.748851471119906]
LLM(Large Language Models)の安全性の整合性は、手動のジェイルブレイク攻撃や(自動)敵攻撃によって損なわれる可能性がある。
最近の研究は、これらの攻撃に対する防御が可能であることを示唆している。敵攻撃は無限だが読めないジベリッシュプロンプトを生成し、難易度に基づくフィルタによって検出できる。
両攻撃の強度をマージする,解釈可能な勾配に基づく対向攻撃であるAutoDANを導入する。
論文 参考訳(メタデータ) (2023-10-23T17:46:07Z) - AutoDAN: Generating Stealthy Jailbreak Prompts on Aligned Large Language Models [54.95912006700379]
本稿では,大規模言語モデルに対する新たなジェイルブレイク攻撃であるAutoDANを紹介する。
AutoDANは、慎重に設計された階層型遺伝的アルゴリズムによって、ステルスなジェイルブレイクプロンプトを自動的に生成できる。
論文 参考訳(メタデータ) (2023-10-03T19:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。