論文の概要: Logic layer Prompt Control Injection (LPCI): A Novel Security Vulnerability Class in Agentic Systems
- arxiv url: http://arxiv.org/abs/2507.10457v2
- Date: Wed, 06 Aug 2025 22:10:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 16:47:39.151351
- Title: Logic layer Prompt Control Injection (LPCI): A Novel Security Vulnerability Class in Agentic Systems
- Title(参考訳): 論理層プロンプト制御インジェクション(LPCI) : エージェントシステムにおける新しいセキュリティ脆弱性クラス
- Authors: Hammad Atta, Ken Huang, Manish Bhatt, Kamal Ahmed, Muhammad Aziz Ul Haq, Yasir Mehmood,
- Abstract要約: 本稿では論理層プロンプト制御インジェクション(L PCI)を紹介する。
L PCIはメモリ、ベクトルストア、ツール出力にエンコード、遅延、条件付きペイロードを埋め込む。
これらのペイロードは、従来の入力フィルタをバイパスし、セッション間で許可されていない振る舞いをトリガーすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of large language models (LLMs) into enterprise systems has introduced a new class of covert security vulnerabilities, particularly within logic execution layers and persistent memory contexts. This paper introduces Logic-layer Prompt Control Injection (LPCI), a novel category of attacks that embeds encoded, delayed, and conditionally triggered payloads within memory, vector stores, or tool outputs. These payloads can bypass conventional input filters and trigger unauthorised behaviour across sessions.
- Abstract(参考訳): エンタープライズシステムへの大規模言語モデル(LLM)の統合は、特にロジック実行層と永続的なメモリコンテキストにおいて、秘密のセキュリティ脆弱性のクラスを導入している。
本稿では,メモリ,ベクトルストア,あるいはツールアウトプット内に,エンコード,遅延,条件付きペイロードを埋め込んだ新たな攻撃カテゴリであるLPCI(Logic-layer Prompt Control Injection)を紹介する。
これらのペイロードは、従来の入力フィルタをバイパスし、セッション間で許可されていない振る舞いをトリガーすることができる。
関連論文リスト
- CoTGuard: Using Chain-of-Thought Triggering for Copyright Protection in Multi-Agent LLM Systems [55.57181090183713]
我々は、Chain-of-Thought推論内でトリガーベースの検出を活用する著作権保護のための新しいフレームワークであるCoTGuardを紹介する。
具体的には、特定のCoTセグメントをアクティベートし、特定のトリガクエリをエージェントプロンプトに埋め込むことで、未許可コンテンツ再生の中間的推論ステップを監視する。
このアプローチは、協調エージェントシナリオにおける著作権侵害の微細かつ解釈可能な検出を可能にする。
論文 参考訳(メタデータ) (2025-05-26T01:42:37Z) - CANTXSec: A Deterministic Intrusion Detection and Prevention System for CAN Bus Monitoring ECU Activations [53.036288487863786]
物理ECUアクティベーションに基づく最初の決定論的侵入検知・防止システムであるCANTXSecを提案する。
CANバスの古典的な攻撃を検知・防止し、文献では調査されていない高度な攻撃を検知する。
物理テストベッド上での解法の有効性を実証し,攻撃の両クラスにおいて100%検出精度を達成し,100%のFIAを防止した。
論文 参考訳(メタデータ) (2025-05-14T13:37:07Z) - Defending against Indirect Prompt Injection by Instruction Detection [81.98614607987793]
本稿では, 外部データを入力として取り込んで, 前方および後方の伝搬中におけるLCMの動作状態を利用して, 潜在的なIPI攻撃を検出する手法を提案する。
提案手法は,ドメイン内設定で99.60%,ドメイン外設定で96.90%,攻撃成功率でBIPIAベンチマークで0.12%に低下する。
論文 参考訳(メタデータ) (2025-05-08T13:04:45Z) - Output Constraints as Attack Surface: Exploiting Structured Generation to Bypass LLM Safety Mechanisms [0.9091225937132784]
我々は、従来のデータプレーンの脆弱性に対して、重要な制御プレーン攻撃面を明らかにする。
本稿では、構造的出力制約を武器として安全機構をバイパスする新しいジェイルブレイククラスであるConstrained Decoding Attackを紹介する。
本研究は, 現状のLLMアーキテクチャにおける重要なセキュリティ盲点を明らかにし, 制御面脆弱性に対処するため, LLM安全性のパラダイムシフトを促すものである。
論文 参考訳(メタデータ) (2025-03-31T15:08:06Z) - CRAFT: Characterizing and Root-Causing Fault Injection Threats at Pre-Silicon [4.83186491286234]
本研究は, プレシリコンレベルにおいて, 制御されたインジェクション攻撃を行うための包括的方法論を提案する。
駆動アプリケーションとして、クリティカルな誤分類のために、AI/MLアプリケーションにクロックグリッチアタックを使用します。
論文 参考訳(メタデータ) (2025-03-05T20:17:46Z) - Honest to a Fault: Root-Causing Fault Attacks with Pre-Silicon RISC Pipeline Characterization [4.83186491286234]
本研究の目的は、回路レベルからAI/MLアプリケーションソフトウェアへの障害伝播をトレースしながら、RISC-V命令セットとパイプラインステージ内の障害の影響を特徴づけ、診断することである。
この分析により、制御されたクロックグリッチパラメータによって新たな脆弱性を発見し、特にRISC-Vデコードステージをターゲットにした。
論文 参考訳(メタデータ) (2025-03-05T20:08:12Z) - Embedding-based classifiers can detect prompt injection attacks [5.820776057182452]
大規模言語モデル(LLM)は敵の攻撃、特にインジェクション攻撃に対して脆弱である。
本稿では,組込み型機械学習(ML)分類器をベースとした新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:36:59Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Real-Time Zero-Day Intrusion Detection System for Automotive Controller
Area Network on FPGAs [13.581341206178525]
本稿では,ゼロデイアタックを検出するための教師なし学習に基づく畳み込みオートエンコーダアーキテクチャを提案する。
資源制約のZynq Ultrascaleプラットフォームを対象としたAMD/XilinxのVitis-AIツールを用いてモデルを定量化する。
提案モデルでは, 未知のDoS, ファジング, スプーフィング攻撃に対して, 同一以上の分類精度 (>99.5%) を達成することができた。
論文 参考訳(メタデータ) (2024-01-19T14:36:01Z) - Signed-Prompt: A New Approach to Prevent Prompt Injection Attacks
Against LLM-Integrated Applications [0.0]
本稿では,早期のインジェクション攻撃に対する新しい解決策として,Signed-Prompt法を提案する。
この研究には、権限のあるユーザによるコマンドセグメント内の機密命令の署名が含まれており、LLMは信頼できる命令ソースを識別することができる。
実験はSigned-Prompt法の有効性を示し、様々な種類のプロンプトインジェクション攻撃に対してかなりの抵抗を示した。
論文 参考訳(メタデータ) (2024-01-15T11:44:18Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。