論文の概要: AgentSHAP: Interpreting LLM Agent Tool Importance with Monte Carlo Shapley Value Estimation
- arxiv url: http://arxiv.org/abs/2512.12597v1
- Date: Sun, 14 Dec 2025 08:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.337737
- Title: AgentSHAP: Interpreting LLM Agent Tool Importance with Monte Carlo Shapley Value Estimation
- Title(参考訳): AgentSHAP:モンテカルロシェープ値推定によるLLMエージェントツールの重要性の解釈
- Authors: Miriam Horovicz,
- Abstract要約: 本稿では,LDMエージェントにおけるツールの重要性を説明するための最初のフレームワークであるAgentSHAPを紹介する。
エージェントをブラックボックスとして扱い、内部重量や勾配へのアクセスを必要とせずに、任意のLCMで動作する。
筆者らの貢献は,(1)ゲーム理論からシェープリー値に基づくエージェントツール属性の最初の説明可能性手法,(2)O(2n)から実用レベルまでコストを下げるモンテカルロサンプリング,(3)API-Bankに関する総合的な実験である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM agents that use external tools can solve complex tasks, but understanding which tools actually contributed to a response remains a blind spot. No existing XAI methods address tool-level explanations. We introduce AgentSHAP, the first framework for explaining tool importance in LLM agents. AgentSHAP is model-agnostic: it treats the agent as a black box and works with any LLM (GPT, Claude, Llama, etc.) without needing access to internal weights or gradients. Using Monte Carlo Shapley values, AgentSHAP tests how an agent responds with different tool subsets and computes fair importance scores based on game theory. Our contributions are: (1) the first explainability method for agent tool attribution, grounded in Shapley values from game theory; (2) Monte Carlo sampling that reduces cost from O(2n) to practical levels; and (3) comprehensive experiments on API-Bank showing that AgentSHAP produces consistent scores across runs, correctly identifies which tools matter, and distinguishes relevant from irrelevant tools. AgentSHAP joins TokenSHAP (for tokens) and PixelSHAP (for image regions) to complete a family of Shapley-based XAI tools for modern generative AI. Code: https://github.com/GenAISHAP/TokenSHAP.
- Abstract(参考訳): 外部ツールを使用するLLMエージェントは複雑なタスクを解くことができるが、どのツールが応答に実際に寄与しているかを理解することは盲点である。
ツールレベルの説明に既存のXAIメソッドは対応していません。
本稿では,LDMエージェントにおけるツールの重要性を説明するための最初のフレームワークであるAgentSHAPを紹介する。
エージェントSHAPはモデルに依存しない: エージェントをブラックボックスとして扱い、内部重量や勾配へのアクセスを必要とせず、いかなるLCM(GPT、Claude、Llamaなど)とも機能する。
エージェントSHAPはMonte Carlo Shapleyの値を使用して、エージェントが異なるツールサブセットでどのように反応するかをテストし、ゲーム理論に基づいた公正な重要性スコアを計算する。
提案手法は,(1)ゲーム理論からシェープリー値に基づくエージェントツール属性の最初の説明可能性手法,(2)O(2n)から実用レベルまでコストを下げるモンテカルロサンプリング,(3)AgentSHAPが実行中に一貫したスコアを生成し,どのツールが重要かを正しく識別し,無関係ツールと区別することを示すAPI-Bankに関する総合的な実験である。
AgentSHAPはトークン用)TokenSHAPとPixelSHAP(画像領域用)に加わり、現代の生成AIのためのShapleyベースのXAIツールのファミリーを完成させる。
コード:https://github.com/GenAISHAP/TokenSHAP
関連論文リスト
- ML-Tool-Bench: Tool-Augmented Planning for ML Tasks [23.54937738755734]
ツール強化機械学習エージェントの評価のためのベンチマークを導入する。
私たちのベンチマークは、インメモリ名のオブジェクト管理を組み込むことで、従来のツール使用の評価を超えています。
我々のアプローチはReActよりも16.2%向上し、すべてのKaggle課題の中央値を取ります。
論文 参考訳(メタデータ) (2025-11-29T23:59:40Z) - Distilling LLM Agent into Small Models with Retrieval and Code Tools [65.73762766854192]
Agent Distillationは、推論能力とタスク解決の振る舞いを大きな言語モデルから小さな言語モデルに移行するためのフレームワークである。
その結果,SLMは0.5B,1.5B,3Bのパラメータで,次世代の1.5B,3B,7Bモデルと競合する性能が得られることがわかった。
論文 参考訳(メタデータ) (2025-05-23T08:20:15Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。