論文の概要: Prompt Injection Mitigation with Agentic AI, Nested Learning, and AI Sustainability via Semantic Caching
- arxiv url: http://arxiv.org/abs/2601.13186v1
- Date: Mon, 19 Jan 2026 16:10:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.962729
- Title: Prompt Injection Mitigation with Agentic AI, Nested Learning, and AI Sustainability via Semantic Caching
- Title(参考訳): エージェントAIによるプロンプトインジェクション緩和,ネストラーニング,セマンティックキャッシングによるAIサステナビリティ
- Authors: Diego Gosmar, Deborah A. Dahl,
- Abstract要約: 本論文は, TIVS (Total Injection Vulnerability Score) を導入した作業を基にしたものである。
HOPEにインスパイアされたNested Learningアーキテクチャにおいて、防御効果が透明性とどのように相互作用するかを調査する。
実験の結果,高いリスクを伴わないセキュアな応答が得られた。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt injection remains a central obstacle to the safe deployment of large language models, particularly in multi-agent settings where intermediate outputs can propagate or amplify malicious instructions. Building on earlier work that introduced a four-metric Total Injection Vulnerability Score (TIVS), this paper extends the evaluation framework with semantic similarity-based caching and a fifth metric (Observability Score Ratio) to yield TIVS-O, investigating how defence effectiveness interacts with transparency in a HOPE-inspired Nested Learning architecture. The proposed system combines an agentic pipeline with Continuum Memory Systems that implement semantic similarity-based caching across 301 synthetically generated injection-focused prompts drawn from ten attack families, while a fourth agent performs comprehensive security analysis using five key performance indicators. In addition to traditional injection metrics, OSR quantifies the richness and clarity of security-relevant reasoning exposed by each agent, enabling an explicit analysis of trade-offs between strict mitigation and auditability. Experiments show that the system achieves secure responses with zero high-risk breaches, while semantic caching delivers substantial computational savings, achieving a 41.6% reduction in LLM calls and corresponding decreases in latency, energy consumption, and carbon emissions. Five TIVS-O configurations reveal optimal trade-offs between mitigation strictness and forensic transparency. These results indicate that observability-aware evaluation can reveal non-monotonic effects within multi-agent pipelines and that memory-augmented agents can jointly maximize security robustness, real-time performance, operational cost savings, and environmental sustainability without modifying underlying model weights, providing a production-ready pathway for secure and green LLM deployments.
- Abstract(参考訳): プロンプトインジェクションは、特に中間出力が悪意のある命令を伝播または増幅できるマルチエージェント設定において、大きな言語モデルの安全なデプロイに対する中心的な障害である。
TIVS(Total Injection Vulnerability Score)を導入した初期の研究に基づいて、セマンティックな類似性に基づくキャッシュと第5のメトリクス(Observability Score Ratio)を用いて評価フレームワークを拡張し、TIVS-Oを出力し、HOPEにインスパイアされたNested Learningアーキテクチャにおいて、防御効果が透明性とどのように相互作用するかを調査する。
提案システムでは, エージェントパイプラインと連続記憶システムを組み合わせることで, セマンティックな類似性に基づくキャッシュを, セマンティックに生成した10の攻撃ファミリーから引き出された301のインジェクション中心のプロンプトに実装し, 4番目のエージェントは5つの重要なパフォーマンス指標を用いて総合的なセキュリティ分析を行う。
従来のインジェクションメトリクスに加えて、OSRは各エージェントが公開するセキュリティ関連推論の豊かさと明快さを定量化し、厳格な緩和と監査可能性の間のトレードオフを明示的に分析することを可能にする。
実験の結果、セマンティックキャッシングは計算量を大幅に削減し、LCMコールの41.6%の削減と、遅延、エネルギー消費、二酸化炭素排出量の削減を実現している。
5つのTIVS-O構成は、緩和厳密性と法医学的透明性の間の最適なトレードオフを明らかにする。
これらの結果から,マルチエージェントパイプライン内の非単調効果を観測可能とし,メモリ拡張エージェントがモデル重みの変更を伴わずに,セキュリティの堅牢性,リアルタイム性能,運用コストの削減,環境保全性を両立させることができることが示唆された。
関連論文リスト
- Enhanced-FQL($λ$), an Efficient and Interpretable RL with novel Fuzzy Eligibility Traces and Segmented Experience Replay [0.0]
Enhanced-FQL($$)は、n-step fuzzy TDやfuzzyA($$)ベースラインと比較して、優れたサンプル効率と分散の低減を実現している。
フレームワーク固有の解釈可能性と計算効率と理論的収束保証が組み合わさって、安全クリティカルなアプリケーションに適している。
論文 参考訳(メタデータ) (2026-01-07T20:59:18Z) - Energy-Efficient Multi-LLM Reasoning for Binary-Free Zero-Day Detection in IoT Firmware [5.485965161578769]
静的解析、シンボリック実行、ファジィングといった既存の分析手法は、バイナリ可視性や機能的エミュレーションに依存している。
本稿では,高レベルの記述子のみを用いて,概念的ゼロデイ脆弱性の可能性を推定する,バイナリフリーでアーキテクチャに依存しないソリューションを提案する。
論文 参考訳(メタデータ) (2025-12-23T00:34:50Z) - Towards Efficient Agents: A Co-Design of Inference Architecture and System [66.59916327634639]
本稿では,エージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
問題をAgentCollab、AgentSched、AgentSAM、AgentCompressの4つの相乗的コンポーネントに分解する。
BrowseComp-zhとDeepDiverベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減することを示した。
論文 参考訳(メタデータ) (2025-12-20T12:06:13Z) - Efficient Thought Space Exploration through Strategic Intervention [54.35208611253168]
本稿では,この知見を2つの相乗的コンポーネントを通して操作するHint-Practice Reasoning(HPR)フレームワークを提案する。
フレームワークの中核となる革新は、動的に介入点を識別する分散不整合低減(DIR)である。
算術的および常識的推論ベンチマークによる実験は、HPRの最先端の効率-精度トレードオフを実証している。
論文 参考訳(メタデータ) (2025-11-13T07:26:01Z) - Agentic Moderation: Multi-Agent Design for Safer Vision-Language Models [17.28260523039769]
本稿では,Jailbreak攻撃に対するマルチモーダルシステムを保護するために,特殊エージェントを活用するモデル非依存フレームワークであるAgentic Moderationを紹介する。
提案手法は,攻撃成功率(ASR)を7-19%削減し,安定な非フォロー率(NF)を維持し,拒絶率(RR)を4-20%改善する。
エージェントアーキテクチャの柔軟性と推論能力を活用することで、Agentic Moderationはモジュール化され、スケーラブルで、きめ細かい安全対策を提供する。
論文 参考訳(メタデータ) (2025-10-29T05:23:24Z) - DeLeaker: Dynamic Inference-Time Reweighting For Semantic Leakage Mitigation in Text-to-Image Models [55.30555646945055]
テキスト・ツー・イメージ(T2I)モデルはセマンティック・リークに対して脆弱である。
DeLeakerは、モデルのアテンションマップに直接介入することで、漏洩を緩和する軽量なアプローチである。
SLIMはセマンティックリークに特化した最初のデータセットである。
論文 参考訳(メタデータ) (2025-10-16T17:39:21Z) - DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - Theoretical Insights in Model Inversion Robustness and Conditional Entropy Maximization for Collaborative Inference Systems [89.35169042718739]
協調推論により、クラウドサーバに機密データを公開することなく、エンドユーザは強力なディープラーニングモデルを活用することができる。
近年の研究では、これらの中間機能は、情報が漏洩し、生データをモデル反転攻撃(MIA)によって再構築できるため、プライバシーを十分に保持できないことが判明している。
この研究はまず、与えられた中間特徴の入力の条件エントロピーが、任意のMIAの下での再構成平均二乗誤差(MSE)の保証された下界を与えることを理論的に証明する。
そして、ガウス混合推定に基づいて、この条件付きエントロピーを有界化するための微分可能かつ可解な尺度を導出し、逆ロバスト性を高める条件付きエントロピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-01T07:15:21Z) - LENS-XAI: Redefining Lightweight and Explainable Network Security through Knowledge Distillation and Variational Autoencoders for Scalable Intrusion Detection in Cybersecurity [0.0]
本研究は軽量説明可能ネットワークセキュリティフレームワーク(LENS-XAI)を紹介する。
LENS-XAIは、堅牢な侵入検知と、拡張された解釈可能性とスケーラビリティを組み合わせる。
本研究は, 計算効率, 特徴解釈可能性, 実世界の応用性に対処することで, IDSの進歩に大きく貢献する。
論文 参考訳(メタデータ) (2025-01-01T10:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。