論文の概要: Agentic Explainable Artificial Intelligence (Agentic XAI) Approach To Explore Better Explanation
- arxiv url: http://arxiv.org/abs/2512.21066v1
- Date: Wed, 24 Dec 2025 09:19:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.746911
- Title: Agentic Explainable Artificial Intelligence (Agentic XAI) Approach To Explore Better Explanation
- Title(参考訳): エージェント説明可能な人工知能(Agentic XAI)によるより良い説明の探索
- Authors: Tomoaki Yamaguchi, Yutong Zhou, Masahiro Ryo, Keisuke Katsura,
- Abstract要約: 本研究では,SHAPをベースとした説明可能性とマルチモーダルLCMによる反復的改善を併用したエージェントXAIフレームワークを提案する。
わが国26田の米収量データを用いて,この枠組みを農業推薦システムとして検証した。
- 参考スコア(独自算出の注目度): 7.268064183717186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (XAI) enables data-driven understanding of factor associations with response variables, yet communicating XAI outputs to laypersons remains challenging, hindering trust in AI-based predictions. Large language models (LLMs) have emerged as promising tools for translating technical explanations into accessible narratives, yet the integration of agentic AI, where LLMs operate as autonomous agents through iterative refinement, with XAI remains unexplored. This study proposes an agentic XAI framework combining SHAP-based explainability with multimodal LLM-driven iterative refinement to generate progressively enhanced explanations. As a use case, we tested this framework as an agricultural recommendation system using rice yield data from 26 fields in Japan. The Agentic XAI initially provided a SHAP result and explored how to improve the explanation through additional analysis iteratively across 11 refinement rounds (Rounds 0-10). Explanations were evaluated by human experts (crop scientists) (n=12) and LLMs (n=14) against seven metrics: Specificity, Clarity, Conciseness, Practicality, Contextual Relevance, Cost Consideration, and Crop Science Credibility. Both evaluator groups confirmed that the framework successfully enhanced recommendation quality with an average score increase of 30-33% from Round 0, peaking at Rounds 3-4. However, excessive refinement showed a substantial drop in recommendation quality, indicating a bias-variance trade-off where early rounds lacked explanation depth (bias) while excessive iteration introduced verbosity and ungrounded abstraction (variance), as revealed by metric-specific analysis. These findings suggest that strategic early stopping (regularization) is needed for optimizing practical utility, challenging assumptions about monotonic improvement and providing evidence-based design principles for agentic XAI systems.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、データ駆動による応答変数との相関関係の理解を可能にするが、XAI出力をレイパーに伝達することは依然として困難であり、AIベースの予測への信頼を妨げる。
大規模言語モデル(LLM)は、技術的説明をアクセシブルな物語に翻訳するための有望なツールとして登場したが、エージェントAIの統合は、LLMが反復的洗練を通じて自律的なエージェントとして機能し、XAIはいまだ探索されていない。
本研究では,SHAPに基づく説明可能性とマルチモーダル LLM による反復的改善を併用したエージェントXAIフレームワークを提案する。
事例として、日本の26田の米収量データを用いた農業推薦システムとして、この枠組みを検証した。
エージェントXAIは最初、SHAPの結果を提供し、11回の改良ラウンド(Rounds 0-10)で追加的な分析によって説明を改善する方法について検討した。
特定性,明度,簡潔性,実践性,文脈関連性,コスト考慮,作物科学の信頼性の7つの指標に対して,人間の専門家(頭皮科学者) (n=12), LLM (n=14) による説明を行った。
両評価グループは, 平均得点が0ラウンドから30~33%上昇し, 推薦品質が3~4ラウンドでピークに達したことを確認した。
しかし、過剰な改善は推奨品質を著しく低下させ、初期のラウンドでは説明深度(バイアス)が不足したバイアス分散トレードオフを示す一方で、過剰な反復では冗長性や非基底的抽象化(分散)が導入され、メトリクス固有の分析によって明らかになった。
これらの結果は, 実用性を最適化し, 単調な改善を仮定し, エージェントXAIシステムにエビデンスに基づく設計原則を提供するためには, 戦略的早期停止(正規化)が必要であることを示唆している。
関連論文リスト
- Repurposing Synthetic Data for Fine-grained Search Agent Supervision [81.95597592711688]
LLMベースの検索エージェントは、エンティティ中心の合成データに基づいてますます訓練されている。
一般的なトレーニングメソッドは、このリッチなエンティティ情報を破棄し、代わりにスパースで結果に基づく報酬に依存します。
E-GRPO(Entity-Aware Group Relative Policy Optimization)は、高密度なエンティティ認識報酬関数を定式化する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-10-28T17:50:40Z) - Towards Transparent AI: A Survey on Explainable Language Models [22.70051215800476]
言語モデル(LM)は、自然言語処理を著しく進歩させ、様々な領域で顕著な進歩を可能にした。
透明性の欠如は、高い領域の採用において特に問題となる。
XAI法は非LMに対してよく研究されているが、LMに適用した場合、多くの制限に直面している。
論文 参考訳(メタデータ) (2025-09-25T21:47:39Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - AIGI-Holmes: Towards Explainable and Generalizable AI-Generated Image Detection via Multimodal Large Language Models [78.08374249341514]
AI生成コンテンツ(AIGC)の急速な発展は、誤情報を拡散するAIGIの誤用につながった。
大規模で包括的なデータセットであるHolmes-Setを導入し、画像がAI生成されているかどうかを解説したインストラクションチューニングデータセットを含む。
本研究は,MLLMの構造化説明と品質管理によるデータ生成を効率化する,Multi-Expert Juryと呼ばれる効率的なデータアノテーション手法を提案する。
さらに,視覚専門家による事前学習,教師付き微調整,直接選好最適化を含む3段階学習フレームワークであるHolmes Pipelineを提案する。
論文 参考訳(メタデータ) (2025-07-03T14:26:31Z) - Unifying VXAI: A Systematic Review and Framework for the Evaluation of Explainable AI [4.715895520943978]
説明可能なAI(XAI)は、モデル行動に関する人間の理解可能な説明を提供することで、この問題に対処する。
XAIメソッドの増加にもかかわらず、フィールドには標準化された評価プロトコルと適切なメトリクスに関するコンセンサスがない。
我々は、XAI(VXAI)のeValuationのための統一的なフレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-18T12:25:37Z) - Mind the XAI Gap: A Human-Centered LLM Framework for Democratizing Explainable AI [3.301842921686179]
我々は,専門家や非専門家のニーズに合わせて,透明性と人間中心の説明を保証する枠組みを導入する。
本フレームワークは,専門家以外の専門家が理解可能な1つの応答説明と専門家への技術的情報にカプセル化されている。
論文 参考訳(メタデータ) (2025-06-13T21:41:07Z) - Divide-Then-Align: Honest Alignment based on the Knowledge Boundary of RAG [51.120170062795566]
本稿では,問合せが知識境界外にある場合の"I don't know"で応答する機能を備えたRAGシステムを実現するためのDTAを提案する。
DTAは適切な棄権と精度のバランスをとり、検索強化システムの信頼性と信頼性を高める。
論文 参考訳(メタデータ) (2025-05-27T08:21:21Z) - Too Much to Trust? Measuring the Security and Cognitive Impacts of Explainability in AI-Driven SOCs [0.6990493129893112]
説明可能なAI(XAI)は、AIによる脅威検出の透明性と信頼性を高めるための大きな約束を持っている。
本研究は、セキュリティコンテキストにおける現在の説明手法を再評価し、SOCに適合したロールアウェアでコンテキストに富んだXAI設計が実用性を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2025-03-03T21:39:15Z) - The Meta-Evaluation Problem in Explainable AI: Identifying Reliable
Estimators with MetaQuantus [10.135749005469686]
説明可能なAI(XAI)分野における未解決課題の1つは、説明方法の品質を最も確実に見積もる方法を決定することである。
我々は、XAIの異なる品質推定器のメタ評価を通じてこの問題に対処する。
我々の新しいフレームワークMetaQuantusは、品質推定器の2つの相補的な性能特性を解析する。
論文 参考訳(メタデータ) (2023-02-14T18:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。