論文の概要: Whispers of Wealth: Red-Teaming Google's Agent Payments Protocol via Prompt Injection
- arxiv url: http://arxiv.org/abs/2601.22569v1
- Date: Fri, 30 Jan 2026 05:10:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.234569
- Title: Whispers of Wealth: Red-Teaming Google's Agent Payments Protocol via Prompt Injection
- Title(参考訳): Whispers of Wealth: プロンプト注入によるGoogleのエージェント支払いプロトコルの再結合
- Authors: Tanusree Debi, Wentian Zhu,
- Abstract要約: 大規模言語モデル(LLM)ベースのエージェントは、金融取引の自動化にますます利用されている。
文脈推論への依存は、即時操作に支払いシステムを公開する。
Agent Payments Protocol (AP2) は、暗号的に検証可能な命令を通じてエージェント主導の購入を確保することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) based agents are increasingly used to automate financial transactions, yet their reliance on contextual reasoning exposes payment systems to prompt-driven manipulation. The Agent Payments Protocol (AP2) aims to secure agent-led purchases through cryptographically verifiable mandates, but its practical robustness remains underexplored. In this work, we perform an AI red-teaming evaluation of AP2 and identify vulnerabilities arising from indirect and direct prompt injection. We introduce two attack techniques, the Branded Whisper Attack and the Vault Whisper Attack which manipulate product ranking and extract sensitive user data. Using a functional AP2 based shopping agent built with Gemini-2.5-Flash and the Google ADK framework, we experimentally validate that simple adversarial prompts can reliably subvert agent behavior. Our findings reveal critical weaknesses in current agentic payment architectures and highlight the need for stronger isolation and defensive safeguards in LLM-mediated financial systems.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのエージェントは、金融取引の自動化にますます使用されているが、文脈的推論に依存しているため、支払いシステムは即時操作に使用される。
Agent Payments Protocol (AP2) は、暗号的に検証可能な委任状を通じてエージェント主導の購入を確保することを目的としている。
本研究では,AIによるAP2のリピート評価を行い,間接的および直接的インジェクションによる脆弱性を同定する。
本稿では,製品ランキングを操作し,センシティブなユーザデータを抽出する,Branded Whisper AttackとVault Whisper Attackという2つの攻撃手法を紹介する。
Gemini-2.5-FlashとGoogle ADKフレームワークで構築された機能的なAP2ベースのショッピングエージェントを用いて、単純な敵対的プロンプトがエージェントの振る舞いを確実に抑えることができることを実験的に検証した。
本研究は, LLMを介する金融システムにおいて, エージェント・ペイメント・アーキテクチャにおける重要な弱点を明らかにし, より強力な隔離と防御的保護の必要性を強調した。
関連論文リスト
- BlockA2A: Towards Secure and Verifiable Agent-to-Agent Interoperability [8.539128225018489]
BlockA2Aはエージェントとエージェントの相互運用性のための統合されたマルチエージェント信頼フレームワークである。
集中的な信頼ボトルネックを排除し、メッセージの信頼性と実行の整合性を確保し、エージェント間のインタラクションにおける説明責任を保証する。
ビザンチンエージェントのフラグング、リアクティブ実行停止、即時許可取り消しなど、リアルタイムメカニズムによる攻撃を中和する。
論文 参考訳(メタデータ) (2025-08-02T11:59:21Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - On the Resilience of LLM-Based Multi-Agent Collaboration with Faulty Agents [58.79302663733703]
大規模言語モデルに基づくマルチエージェントシステムは、専門家エージェントの協力により、様々なタスクにまたがる優れた能力を示している。
不器用なエージェントや悪意のあるエージェントが与える影響 - システム全体のパフォーマンスにおいて、頻繁にタスクでエラーを犯すものは、いまだに過小評価されていない。
本稿では,下流タスクにおける障害要因下での各種システム構造のレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-08-02T03:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。