論文の概要: From Adversarial Poetry to Adversarial Tales: An Interpretability Research Agenda
- arxiv url: http://arxiv.org/abs/2601.08837v2
- Date: Fri, 16 Jan 2026 13:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.657074
- Title: From Adversarial Poetry to Adversarial Tales: An Interpretability Research Agenda
- Title(参考訳): 敵の詩から敵の物語へ : 解釈可能性研究アジェンダ
- Authors: Piercosma Bisconti, Marcello Galisai, Matteo Prandi, Federico Pierucci, Olga Sorokoletova, Francesco Giarrusso, Vincenzo Suriani, Marcantonio Bracale Syrnikov, Daniele Nardi,
- Abstract要約: 本稿では,サイバーパンクの物語に有害なコンテンツを埋め込むジェイルブレイク技術であるAdversarial Talesを紹介する。
平均攻撃成功率は71.3%であり、モデルファミリーが確実に堅牢であることが証明されていない。
- 参考スコア(独自算出の注目度): 1.3763052684269788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety mechanisms in LLMs remain vulnerable to attacks that reframe harmful requests through culturally coded structures. We introduce Adversarial Tales, a jailbreak technique that embeds harmful content within cyberpunk narratives and prompts models to perform functional analysis inspired by Vladimir Propp's morphology of folktales. By casting the task as structural decomposition, the attack induces models to reconstruct harmful procedures as legitimate narrative interpretation. Across 26 frontier models from nine providers, we observe an average attack success rate of 71.3%, with no model family proving reliably robust. Together with our prior work on Adversarial Poetry, these findings suggest that structurally-grounded jailbreaks constitute a broad vulnerability class rather than isolated techniques. The space of culturally coded frames that can mediate harmful intent is vast, likely inexhaustible by pattern-matching defenses alone. Understanding why these attacks succeed is therefore essential: we outline a mechanistic interpretability research agenda to investigate how narrative cues reshape model representations and whether models can learn to recognize harmful intent independently of surface form.
- Abstract(参考訳): LLMの安全性メカニズムは、文化的にコード化された構造を通じて有害な要求をリフレッシュする攻撃に対して脆弱なままである。
本稿では,サイバーパンク物語に有害なコンテンツを埋め込んだジェイルブレイク手法であるAdversarial Talesを紹介し,ウラジーミル・プロップの民話形態に触発された機能解析をモデルに促す。
タスクを構造的分解としてキャストすることで、攻撃は有害な手順を正当な物語解釈として再構築するモデルを誘導する。
9つのプロバイダーの26のフロンティアモデルのうち、平均的な攻撃成功率は71.3%であり、モデルファミリーが確実に堅牢であることが証明されていない。
これらの結果から, 脱獄は孤立した手法ではなく, 幅広い脆弱性クラスを構成することが示唆された。
有害な意図を媒介する、文化的にコーディングされたフレームの空間は、パターンマッチングの防御だけでは、おそらく不確実である。
これらの攻撃がなぜ成功したかを理解することが不可欠である。我々は、モデル表現をどのように作り直すか、そしてモデルが表面形態とは無関係に有害な意図を認識することを学べるかを研究するための機械論的解釈可能性研究の課題を概説する。
関連論文リスト
- BreakFun: Jailbreaking LLMs via Schema Exploitation [0.28647133890966986]
我々は,Large Language Models (LLM) がいかにして重大な弱点となるかを検討する。
この脆弱性は転送可能であり、13モデルの平均成功率は89%に達する。
二次 LLM は、ユーザの真の有害な意図を分離し、明らかにするために "Literal Transcription" を実行する。
論文 参考訳(メタデータ) (2025-10-19T11:27:44Z) - Turning Logic Against Itself : Probing Model Defenses Through Contrastive Questions [50.40122190627256]
非倫理的反応を引き起こすために、対照的な推論を利用する新しいジェイルブレイク手法であるPOATEを導入する。
PoATEは意味論的に意図に反し、敵のテンプレートと統合し、有害なアウトプットを驚くほど微妙に操る。
これに対応するために、悪意のある意図と理性を検出するためにクエリを分解して、有害な応答を評価し、拒否するIntent-Aware CoTとReverse Thinking CoTを提案する。
論文 参考訳(メタデータ) (2025-01-03T15:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。