論文の概要: The Promptware Kill Chain: How Prompt Injections Gradually Evolved Into a Multi-Step Malware
- arxiv url: http://arxiv.org/abs/2601.09625v1
- Date: Wed, 14 Jan 2026 16:57:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.476096
- Title: The Promptware Kill Chain: How Prompt Injections Gradually Evolved Into a Multi-Step Malware
- Title(参考訳): Promptware Kill Chain:マルチステップマルウェアに段階的にプロンプトを注入する方法
- Authors: Ben Nassi, Bruce Schneier, Oleg Brodt,
- Abstract要約: 大規模言語モデル(LLM)ベースのシステムは、既存のセキュリティフレームワークが不十分に対処する新たなアタックサーフェスを作成している。
我々は,LSMをベースとしたアプリケーションを対象とした攻撃が,thisttpromptwareと呼ばれるマルウェア群を構成することを提案し,これらの脅威を解析するための5段階のキルチェーンモデルを提案する。
- 参考スコア(独自算出の注目度): 6.5249834967502744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of large language model (LLM)-based systems -- from chatbots to autonomous agents capable of executing code and financial transactions -- has created a new attack surface that existing security frameworks inadequately address. The dominant framing of these threats as "prompt injection" -- a catch-all phrase for security failures in LLM-based systems -- obscures a more complex reality: Attacks on LLM-based systems increasingly involve multi-step sequences that mirror traditional malware campaigns. In this paper, we propose that attacks targeting LLM-based applications constitute a distinct class of malware, which we term \textit{promptware}, and introduce a five-step kill chain model for analyzing these threats. The framework comprises Initial Access (prompt injection), Privilege Escalation (jailbreaking), Persistence (memory and retrieval poisoning), Lateral Movement (cross-system and cross-user propagation), and Actions on Objective (ranging from data exfiltration to unauthorized transactions). By mapping recent attacks to this structure, we demonstrate that LLM-related attacks follow systematic sequences analogous to traditional malware campaigns. The promptware kill chain offers security practitioners a structured methodology for threat modeling and provides a common vocabulary for researchers across AI safety and cybersecurity to address a rapidly evolving threat landscape.
- Abstract(参考訳): チャットボットから、コードと金融トランザクションを実行する自律エージェントに至るまで、大規模言語モデル(LLM)ベースのシステムが急速に採用され、既存のセキュリティフレームワークが不十分に対処する新たな攻撃面が生まれました。
LLMベースのシステムにおけるセキュリティ障害のキャッチフレーズである"プロンプトインジェクション(prompt Injection)"としてのこれらの脅威の主流は、より複雑な現実を隠蔽している。
本稿では, LLM をベースとしたアプリケーションを対象とした攻撃が, 異なる種類のマルウェアを構成することを提案し, これらの脅威を解析するための5段階のキルチェーンモデルを提案する。
このフレームワークは、初期アクセス(プロンプトインジェクション)、プリヴィレージエスカレーション(ジェイルブレイク)、パーシステンス(メモリとリユース中毒)、横移動(クロスシステムとクロスユーザープロパゲーション)、およびActions on Objective(データ流出から不正なトランザクションまで)で構成されている。
この構造に最近の攻撃をマッピングすることにより、従来のマルウェアキャンペーンと類似した系統的な攻撃がLLMと関連していることを示す。
プロンプトウェアキルチェーンは、セキュリティ実践者に脅威モデリングのための構造化された方法論を提供し、AI安全とサイバーセキュリティの研究者が急速に進化する脅威の状況に対処するための共通の語彙を提供する。
関連論文リスト
- Odysseus: Jailbreaking Commercial Multimodal LLM-integrated Systems via Dual Steganography [77.44136793431893]
本稿では,悪質なクエリを隠蔽して良質な画像に埋め込むために,二重ステガノグラフィーを導入した新しいjailbreakパラダイムを提案する。
我々のOdysseusはいくつかの先駆的で現実的なMLLM統合システムを脱獄し、最大99%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2025-12-23T08:53:36Z) - Large Language Models for Cyber Security [0.0]
本稿では,大規模言語モデルのサイバーセキュリティツールやプロトコルへの統合について検討する。
本稿で論じている主な問題は、従来のルールベースおよび署名ベースのセキュリティシステムが、現代のAIによるサイバー脅威に対処するには不十分であることだ。
論文 参考訳(メタデータ) (2025-11-06T16:25:35Z) - Prompt Injection 2.0: Hybrid AI Threats [0.0]
我々はプレアンブルの基礎研究と緩和技術を構築し、現代の脅威に対してそれらを評価した。
我々は,迅速なアイソレーション,ランタイムセキュリティ,特権分離と新たな脅威検出機能を組み合わせたアーキテクチャソリューションを提案する。
論文 参考訳(メタデータ) (2025-07-17T14:33:36Z) - AutoAdv: Automated Adversarial Prompting for Multi-Turn Jailbreaking of Large Language Models [0.0]
大規模言語モデル(LLM)は、ジェイルブレイク攻撃の脆弱性を示し続けている。
本稿では,敵対的即時生成を自動化する新しいフレームワークであるAutoAdvを紹介する。
我々の攻撃は、有害なコンテンツ生成に対して最大86%のジェイルブレイク成功率を達成したことを示す。
論文 参考訳(メタデータ) (2025-04-18T08:38:56Z) - Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - Human-Interpretable Adversarial Prompt Attack on Large Language Models with Situational Context [49.13497493053742]
本研究は,無意味な接尾辞攻撃を状況駆動型文脈書き換えによって意味のあるプロンプトに変換することを検討する。
我々は、独立して意味のある敵の挿入と映画から派生した状況を組み合わせて、LLMを騙せるかどうかを確認します。
当社のアプローチでは,オープンソースとプロプライエタリなLLMの両方で,状況駆動型攻撃を成功させることが実証されている。
論文 参考訳(メタデータ) (2024-07-19T19:47:26Z) - AdaShield: Safeguarding Multimodal Large Language Models from Structure-based Attack via Adaptive Shield Prompting [54.931241667414184]
textbfAdaptive textbfShield Promptingを提案する。これは、MLLMを構造ベースのジェイルブレイク攻撃から守るための防御プロンプトで入力をプリペイドする。
我々の手法は、構造に基づくジェイルブレイク攻撃に対するMLLMの堅牢性を一貫して改善することができる。
論文 参考訳(メタデータ) (2024-03-14T15:57:13Z) - Hijacking Large Language Models via Adversarial In-Context Learning [10.416972293173993]
In-context Learning (ICL) は、ラベル付き例を事前条件付きプロンプトのデモ(デム)として活用することで、特定の下流タスクにLLMを活用する強力なパラダイムとして登場した。
既存の攻撃は検出しやすく、ユーザーの入力にトリガーを必要とするか、ICLに対する特異性を欠いている。
本研究は、ILCに対する新規なトランスファー可能なプロンプトインジェクション攻撃を導入し、LSMをハイジャックしてターゲット出力を生成したり、有害な応答を誘発する。
論文 参考訳(メタデータ) (2023-11-16T15:01:48Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。