論文の概要: PINA: Prompt Injection Attack against Navigation Agents
- arxiv url: http://arxiv.org/abs/2601.13612v1
- Date: Tue, 20 Jan 2026 05:28:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.169951
- Title: PINA: Prompt Injection Attack against Navigation Agents
- Title(参考訳): PINA: ナビゲーションエージェントに対するプロンプトインジェクション攻撃
- Authors: Jiani Liu, Yixin He, Lanlan Fan, Qidi Zhong, Yushi Cheng, Meng Zhang, Yanjiao Chen, Wenyuan Xu,
- Abstract要約: 大型言語モデル(LLM)を利用したナビゲーションエージェントは、自然言語命令を実行可能な計画とアクションに変換する。
PINAは、ブラックボックス、ロングコンテキスト、アクション実行可能な制約の下でナビゲーションエージェントに適した適応的なプロンプト最適化フレームワークである。
屋内および屋外のナビゲーションエージェントの実験は、PINAが平均87.5%の攻撃成功率を達成したことを示している。
- 参考スコア(独自算出の注目度): 25.80226108529482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Navigation agents powered by large language models (LLMs) convert natural language instructions into executable plans and actions. Compared to text-based applications, their security is far more critical: a successful prompt injection attack does not just alter outputs but can directly misguide physical navigation, leading to unsafe routes, mission failure, or real-world harm. Despite this high-stakes setting, the vulnerability of navigation agents to prompt injection remains largely unexplored. In this paper, we propose PINA, an adaptive prompt optimization framework tailored to navigation agents under black-box, long-context, and action-executable constraints. Experiments on indoor and outdoor navigation agents show that PINA achieves high attack success rates with an average ASR of 87.5%, surpasses all baselines, and remains robust under ablation and adaptive-attack conditions. This work provides the first systematic investigation of prompt injection attacks in navigation and highlights their urgent security implications for embodied LLM agents.
- Abstract(参考訳): 大型言語モデル(LLM)を利用したナビゲーションエージェントは、自然言語命令を実行可能な計画とアクションに変換する。
プロンプトインジェクション攻撃が成功すれば、出力を変更するだけでなく、物理的なナビゲーションを直接間違えて、安全でないルートやミッション失敗、現実世界の危害につながる可能性がある。
この高い設定にもかかわらず、インジェクションを誘導するナビゲーションエージェントの脆弱性はほとんど未解明のままである。
本稿では,ブラックボックス,ロングコンテキスト,アクション実行可能な制約下でのナビゲーションエージェントに適した適応的プロンプト最適化フレームワークであるPINAを提案する。
屋内および屋外のナビゲーションエージェントの実験では、PINAは平均87.5%のASRで高い攻撃成功率を達成し、全てのベースラインを越え、アブレーションと適応攻撃条件下でも堅牢である。
この研究は、ナビゲーションにおけるインジェクション攻撃のシステマティックな調査を初めて提供し、LLMエージェントの緊急セキュリティへの影響を強調した。
関連論文リスト
- SkillJect: Automating Stealthy Skill-Based Prompt Injection for Coding Agents with Trace-Driven Closed-Loop Refinement [120.52289344734415]
エージェントスキルに適したステルスプロンプトインジェクションのための自動フレームワークを提案する。
フレームワークは、明示的なステルス制約の下でインジェクションスキルを合成するアタックエージェント、インジェクションされたスキルを使用してタスクを実行するコードエージェント、アクショントレースをログする評価エージェントの3つのエージェントでクローズドループを形成する。
本手法は,現実的な環境下で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2026-02-15T16:09:48Z) - MUZZLE: Adaptive Agentic Red-Teaming of Web Agents Against Indirect Prompt Injection Attacks [10.431616150153992]
MUZZLEは、間接的なプロンプトインジェクション攻撃に対するWebエージェントのセキュリティを評価する自動化フレームワークである。
エージェントの観察された実行軌跡に基づいて攻撃戦略を適用し、失敗した実行からのフィードバックを使用して攻撃を反復的に洗練する。
MUZZLEは、機密性、可用性、プライバシ特性に反する10の敵目標を持つ4つのWebアプリケーションに対する37の新たな攻撃を効果的に発見する。
論文 参考訳(メタデータ) (2026-02-09T21:46:18Z) - It's a TRAP! Task-Redirecting Agent Persuasion Benchmark for Web Agents [52.81924177620322]
大規模な言語モデルを利用したWebベースのエージェントは、メール管理やプロフェッショナルネットワーキングといったタスクにますます利用されている。
動的Webコンテンツへの依存は、インジェクション攻撃の引き金に弱い: インターフェース要素に隠された敵対的命令は、エージェントが元のタスクから逸脱するように説得する。
本稿では,タスクリダイレクトエージェントの説得ベンチマーク(TRAP)について紹介する。
論文 参考訳(メタデータ) (2025-12-29T01:09:10Z) - Visual Backdoor Attacks on MLLM Embodied Decision Making via Contrastive Trigger Learning [89.1856483797116]
MLLMをベースとした組込みエージェントに視覚的バックドアを注入する最初のフレームワークであるBEATを紹介する。
テキストトリガーとは異なり、オブジェクトトリガーは視点や照明の幅が広いため、確実に移植することは困難である。
BEATは攻撃の成功率を最大80%まで達成し、強い良識のあるタスクパフォーマンスを維持します。
論文 参考訳(メタデータ) (2025-10-31T16:50:49Z) - QueryIPI: Query-agnostic Indirect Prompt Injection on Coding Agents [13.098854359317523]
コーディングエージェントのための最初のクエリ非依存IPI手法であるQueryIPIを提案する。
リークされた内部プロンプトによって通知される反復的かつプロンプトベースのプロセスを通じて、悪意のあるツール記述を洗練する。
5つのシミュレーションエージェントの実験は、QueryIPIが最大で87%の成功を達成していることを示している。
論文 参考訳(メタデータ) (2025-10-27T07:04:08Z) - TopicAttack: An Indirect Prompt Injection Attack via Topic Transition [92.26240528996443]
大規模言語モデル(LLM)は間接的なインジェクション攻撃に対して脆弱である。
提案するTopicAttackは,LLMに生成した遷移プロンプトを生成し,徐々にトピックをインジェクション命令にシフトさせる。
提案手法は, インジェクトからオリジナルへのアテンション比が高く, 成功確率が高く, ベースライン法よりもはるかに高い比を達成できることがわかった。
論文 参考訳(メタデータ) (2025-07-18T06:23:31Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - AgentPoison: Red-teaming LLM Agents via Poisoning Memory or Knowledge Bases [73.04652687616286]
本稿では,RAG とRAG をベースとした LLM エージェントを標的とした最初のバックドア攻撃である AgentPoison を提案する。
従来のバックドア攻撃とは異なり、AgentPoisonは追加のモデルトレーニングや微調整を必要としない。
エージェントごとに、AgentPoisonは平均攻撃成功率を80%以上達成し、良質なパフォーマンスに最小限の影響を与える。
論文 参考訳(メタデータ) (2024-07-17T17:59:47Z) - How Secure Are Large Language Models (LLMs) for Navigation in Urban Environments? [32.05931191814951]
本稿では,従来のナビゲーションプロンプトを摂動することで,LSMに基づくナビゲーションモデルを操作する新しいナビゲーションプロンプト攻撃を提案する。
その結果,ホワイトボックス攻撃とブラックボックス攻撃の両方に直面した7つの指標において,顕著なパフォーマンス低下が認められた。
最初の対策として,ナビゲーション・プロンプト・エンジニアリング(NPE)防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。