論文の概要: PINA: Prompt Injection Attack against Navigation Agents
- arxiv url: http://arxiv.org/abs/2601.13612v1
- Date: Tue, 20 Jan 2026 05:28:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.169951
- Title: PINA: Prompt Injection Attack against Navigation Agents
- Title(参考訳): PINA: ナビゲーションエージェントに対するプロンプトインジェクション攻撃
- Authors: Jiani Liu, Yixin He, Lanlan Fan, Qidi Zhong, Yushi Cheng, Meng Zhang, Yanjiao Chen, Wenyuan Xu,
- Abstract要約: 大型言語モデル(LLM)を利用したナビゲーションエージェントは、自然言語命令を実行可能な計画とアクションに変換する。
PINAは、ブラックボックス、ロングコンテキスト、アクション実行可能な制約の下でナビゲーションエージェントに適した適応的なプロンプト最適化フレームワークである。
屋内および屋外のナビゲーションエージェントの実験は、PINAが平均87.5%の攻撃成功率を達成したことを示している。
- 参考スコア(独自算出の注目度): 25.80226108529482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Navigation agents powered by large language models (LLMs) convert natural language instructions into executable plans and actions. Compared to text-based applications, their security is far more critical: a successful prompt injection attack does not just alter outputs but can directly misguide physical navigation, leading to unsafe routes, mission failure, or real-world harm. Despite this high-stakes setting, the vulnerability of navigation agents to prompt injection remains largely unexplored. In this paper, we propose PINA, an adaptive prompt optimization framework tailored to navigation agents under black-box, long-context, and action-executable constraints. Experiments on indoor and outdoor navigation agents show that PINA achieves high attack success rates with an average ASR of 87.5%, surpasses all baselines, and remains robust under ablation and adaptive-attack conditions. This work provides the first systematic investigation of prompt injection attacks in navigation and highlights their urgent security implications for embodied LLM agents.
- Abstract(参考訳): 大型言語モデル(LLM)を利用したナビゲーションエージェントは、自然言語命令を実行可能な計画とアクションに変換する。
プロンプトインジェクション攻撃が成功すれば、出力を変更するだけでなく、物理的なナビゲーションを直接間違えて、安全でないルートやミッション失敗、現実世界の危害につながる可能性がある。
この高い設定にもかかわらず、インジェクションを誘導するナビゲーションエージェントの脆弱性はほとんど未解明のままである。
本稿では,ブラックボックス,ロングコンテキスト,アクション実行可能な制約下でのナビゲーションエージェントに適した適応的プロンプト最適化フレームワークであるPINAを提案する。
屋内および屋外のナビゲーションエージェントの実験では、PINAは平均87.5%のASRで高い攻撃成功率を達成し、全てのベースラインを越え、アブレーションと適応攻撃条件下でも堅牢である。
この研究は、ナビゲーションにおけるインジェクション攻撃のシステマティックな調査を初めて提供し、LLMエージェントの緊急セキュリティへの影響を強調した。
関連論文リスト
- TopicAttack: An Indirect Prompt Injection Attack via Topic Transition [92.26240528996443]
大規模言語モデル(LLM)は間接的なインジェクション攻撃に対して脆弱である。
提案するTopicAttackは,LLMに生成した遷移プロンプトを生成し,徐々にトピックをインジェクション命令にシフトさせる。
提案手法は, インジェクトからオリジナルへのアテンション比が高く, 成功確率が高く, ベースライン法よりもはるかに高い比を達成できることがわかった。
論文 参考訳(メタデータ) (2025-07-18T06:23:31Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - How Secure Are Large Language Models (LLMs) for Navigation in Urban Environments? [32.05931191814951]
本稿では,従来のナビゲーションプロンプトを摂動することで,LSMに基づくナビゲーションモデルを操作する新しいナビゲーションプロンプト攻撃を提案する。
その結果,ホワイトボックス攻撃とブラックボックス攻撃の両方に直面した7つの指標において,顕著なパフォーマンス低下が認められた。
最初の対策として,ナビゲーション・プロンプト・エンジニアリング(NPE)防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-02-14T19:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。