論文の概要: Inter-Agent Trust Models: A Comparative Study of Brief, Claim, Proof, Stake, Reputation and Constraint in Agentic Web Protocol Design-A2A, AP2, ERC-8004, and Beyond
- arxiv url: http://arxiv.org/abs/2511.03434v1
- Date: Wed, 05 Nov 2025 12:50:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.429774
- Title: Inter-Agent Trust Models: A Comparative Study of Brief, Claim, Proof, Stake, Reputation and Constraint in Agentic Web Protocol Design-A2A, AP2, ERC-8004, and Beyond
- Title(参考訳): エージェント間信頼モデル:エージェントWebプロトコル設計におけるブリーフ、クレーム、証明、引用、制約の比較-A2A、AP2、ERC-8004など
- Authors: Botao 'Amber' Hu, Helena Rong,
- Abstract要約: エージェント間プロトコル設計における信頼モデルについて検討する。
仮定、攻撃面、設計トレードオフを分析します。
我々は、より安全で相互運用可能でスケーラブルなエージェント経済のための実行可能な設計ガイドラインを蒸留する。
- 参考スコア(独自算出の注目度): 1.5755923640031846
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the "agentic web" takes shape-billions of AI agents (often LLM-powered) autonomously transacting and collaborating-trust shifts from human oversight to protocol design. In 2025, several inter-agent protocols crystallized this shift, including Google's Agent-to-Agent (A2A), Agent Payments Protocol (AP2), and Ethereum's ERC-8004 "Trustless Agents," yet their underlying trust assumptions remain under-examined. This paper presents a comparative study of trust models in inter-agent protocol design: Brief (self- or third-party verifiable claims), Claim (self-proclaimed capabilities and identity, e.g. AgentCard), Proof (cryptographic verification, including zero-knowledge proofs and trusted execution environment attestations), Stake (bonded collateral with slashing and insurance), Reputation (crowd feedback and graph-based trust signals), and Constraint (sandboxing and capability bounding). For each, we analyze assumptions, attack surfaces, and design trade-offs, with particular emphasis on LLM-specific fragilities-prompt injection, sycophancy/nudge-susceptibility, hallucination, deception, and misalignment-that render purely reputational or claim-only approaches brittle. Our findings indicate no single mechanism suffices. We argue for trustless-by-default architectures anchored in Proof and Stake to gate high-impact actions, augmented by Brief for identity and discovery and Reputation overlays for flexibility and social signals. We comparatively evaluate A2A, AP2, ERC-8004 and related historical variations in academic research under metrics spanning security, privacy, latency/cost, and social robustness (Sybil/collusion/whitewashing resistance). We conclude with hybrid trust model recommendations that mitigate reputation gaming and misinformed LLM behavior, and we distill actionable design guidelines for safer, interoperable, and scalable agent economies.
- Abstract(参考訳): AIエージェント(しばしばLLMで動く)は、人間の監視からプロトコル設計へ、自律的にトランザクティングし、トラストシフトを共同作業する。
2025年、Googleのエージェント・ツー・エージェント(A2A)、エージェント・ペイメント・プロトコル(AP2)、EthereumのERC-8004 "Trustless Agents"など、いくつかのエージェント間プロトコルがこのシフトを結晶化した。
本稿では, エージェント間プロトコル設計における信頼モデルの比較研究として, 簡潔(自己または第三者の検証可能なクレーム), クレーム(自己宣言能力とアイデンティティ, eg AgentCard), 証明(ゼロ知識証明, 信頼された実行環境の検証を含む暗号検証), 佐竹(スラッシュと保険の相互結合), 評価(増大フィードバックとグラフベースの信頼信号), 制約(サンドボックスと能力バウンディング)について述べる。
それぞれについて、仮定、攻撃面、設計トレードオフを分析し、特にLLM固有のフラジリティ・プロンプト・インジェクション、サイコファシー/ナッジ・サセプティビリティ、幻覚、騙し、誤認といった、純粋に評判やクレームのみのアプローチが不安定な点に注目します。
以上の結果より, 単一のメカニズムが不十分であることが示唆された。
我々は,Proof と Stake に固定された信頼性のない無防備なアーキテクチャを,Bref がアイデンティティと発見のために拡張し,柔軟性と社会的シグナルのために再帰的オーバーレイを行う,ハイインパクトな行動のゲートとして論じる。
我々は,A2A,AP2,ERC-8004および関連する学術研究の歴史的変動を,セキュリティ,プライバシ,レイテンシー/コスト,社会的堅牢性(シビル/コールシオン/ホワイトウォッシング抵抗)の指標で比較検討した。
我々は、評価ゲームと誤報されたLLMの挙動を緩和するハイブリッド信頼モデルレコメンデーションを結論付け、安全で相互運用可能でスケーラブルなエージェント経済のために実行可能な設計ガイドラインを抽出する。
関連論文リスト
- The Trust Paradox in LLM-Based Multi-Agent Systems: When Collaboration Becomes a Security Vulnerability [7.452202188661883]
我々はTrust-Vulnerability Paradox(TVP)を紹介し,実証的に検証する。
TVP: 調整を強化するためのエージェント間信頼の増大は、過剰な露出と過剰な認可のリスクを同時に拡大する。
本研究は,TVPを定式化し,統一されたメトリクスで再現可能なベースラインを確立するとともに,マルチエージェントシステム設計において,信頼性を第一級セキュリティ変数としてモデル化し,スケジュールする必要があることを示す。
論文 参考訳(メタデータ) (2025-10-21T12:18:39Z) - Context Lineage Assurance for Non-Human Identities in Critical Multi-Agent Systems [0.08316523707191924]
本稿では,アタッチメントのみのメルクル木構造に固定された系統検証のための暗号的基盤機構を提案する。
従来のA2Aモデルとは異なり、本手法ではエージェントと外部検証器の両方が暗号的にマルチホップ前駆体を検証できる。
並行して、A2Aエージェントカードを拡張して、明示的な識別認証プリミティブを組み込むことにより、NHI表現の正当性を確認することができる。
論文 参考訳(メタデータ) (2025-09-22T20:59:51Z) - The Sum Leaks More Than Its Parts: Compositional Privacy Risks and Mitigations in Multi-Agent Collaboration [72.33801123508145]
大規模言語モデル(LLM)はマルチエージェントシステムに不可欠なものである。
プライバシーリスクは、暗記、直接推論、シングルターン評価を超えて現れる。
特に、相互作用によって構成される一見無害な反応は、敵が機密情報の回復を累積的に行うことができる。
論文 参考訳(メタデータ) (2025-09-16T16:57:25Z) - VulAgent: Hypothesis-Validation based Multi-Agent Vulnerability Detection [55.957275374847484]
VulAgentは仮説検証に基づくマルチエージェント脆弱性検出フレームワークである。
セマンティクスに敏感なマルチビュー検出パイプラインを実装しており、それぞれが特定の分析の観点から一致している。
平均して、VulAgentは全体的な精度を6.6%改善し、脆弱性のある固定されたコードペアの正確な識別率を最大450%向上させ、偽陽性率を約36%削減する。
論文 参考訳(メタデータ) (2025-09-15T02:25:38Z) - BlockA2A: Towards Secure and Verifiable Agent-to-Agent Interoperability [8.539128225018489]
BlockA2Aはエージェントとエージェントの相互運用性のための統合されたマルチエージェント信頼フレームワークである。
集中的な信頼ボトルネックを排除し、メッセージの信頼性と実行の整合性を確保し、エージェント間のインタラクションにおける説明責任を保証する。
ビザンチンエージェントのフラグング、リアクティブ実行停止、即時許可取り消しなど、リアルタイムメカニズムによる攻撃を中和する。
論文 参考訳(メタデータ) (2025-08-02T11:59:21Z) - Quantum-Safe Identity Verification using Relativistic Zero-Knowledge Proof Systems [3.8435472626703473]
金融、医療、オンラインサービスなどの分野では、セキュリティの確保と不正防止のためにアイデンティティの検証が不可欠だ。
現在のパスワード/PINベースのIDソリューションはフィッシングやスキミング攻撃の影響を受けやすい。
グラフカラー化に基づく相対論的ゼロ知識証明によるアイデンティティ検証について検討する。
論文 参考訳(メタデータ) (2025-07-18T18:59:19Z) - Improving Google A2A Protocol: Protecting Sensitive Data and Mitigating Unintended Harms in Multi-Agent Systems [3.398964351541323]
GoogleのA2Aプロトコルは、AIエージェントのためのセキュアな通信フレームワークを提供する。
A2Aの主な弱点は、トークンの寿命制御の欠如、強力な顧客認証の欠如、アクセス範囲の超過、同意フローの欠如である。
半信頼型マルチエージェントシステムに対する構造化脅威モデルに基づくプロトコルレベルの拡張を提案する。
論文 参考訳(メタデータ) (2025-05-18T16:25:21Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。