論文の概要: Mind the XAI Gap: A Human-Centered LLM Framework for Democratizing Explainable AI
- arxiv url: http://arxiv.org/abs/2506.12240v1
- Date: Fri, 13 Jun 2025 21:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.586945
- Title: Mind the XAI Gap: A Human-Centered LLM Framework for Democratizing Explainable AI
- Title(参考訳): Mind the XAI Gap: 説明可能なAIを民主化する人間中心のLLMフレームワーク
- Authors: Eva Paraschou, Ioannis Arapakis, Sofia Yfantidou, Sebastian Macaluso, Athena Vakali,
- Abstract要約: 我々は,専門家や非専門家のニーズに合わせて,透明性と人間中心の説明を保証する枠組みを導入する。
本フレームワークは,専門家以外の専門家が理解可能な1つの応答説明と専門家への技術的情報にカプセル化されている。
- 参考スコア(独自算出の注目度): 3.301842921686179
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is rapidly embedded in critical decision-making systems, however their foundational ``black-box'' models require eXplainable AI (XAI) solutions to enhance transparency, which are mostly oriented to experts, making no sense to non-experts. Alarming evidence about AI's unprecedented human values risks brings forward the imperative need for transparent human-centered XAI solutions. In this work, we introduce a domain-, model-, explanation-agnostic, generalizable and reproducible framework that ensures both transparency and human-centered explanations tailored to the needs of both experts and non-experts. The framework leverages Large Language Models (LLMs) and employs in-context learning to convey domain- and explainability-relevant contextual knowledge into LLMs. Through its structured prompt and system setting, our framework encapsulates in one response explanations understandable by non-experts and technical information to experts, all grounded in domain and explainability principles. To demonstrate the effectiveness of our framework, we establish a ground-truth contextual ``thesaurus'' through a rigorous benchmarking with over 40 data, model, and XAI combinations for an explainable clustering analysis of a well-being scenario. Through a comprehensive quality and human-friendliness evaluation of our framework's explanations, we prove high content quality through strong correlations with ground-truth explanations (Spearman rank correlation=0.92) and improved interpretability and human-friendliness to non-experts through a user study (N=56). Our overall evaluation confirms trust in LLMs as HCXAI enablers, as our framework bridges the above Gaps by delivering (i) high-quality technical explanations aligned with foundational XAI methods and (ii) clear, efficient, and interpretable human-centered explanations for non-experts.
- Abstract(参考訳): 人工知能(AI)は、批判的な意思決定システムに急速に組み込まれているが、その基盤となる 'black-box'' モデルは透明性を高めるために eXplainable AI (XAI) ソリューションを必要としている。
AIの先例のない人間の価値観のリスクに関する証拠を整理することで、透明な人間中心のXAIソリューションの必要性が高まっている。
本研究では,専門家と非専門家の両方のニーズに合わせて,透明性と人間中心の説明の両方を確実にする,ドメイン,モデル,説明に依存しない,一般化可能な,再現可能なフレームワークを提案する。
このフレームワークはLarge Language Models(LLM)を活用し、ドメインと説明可能性に関連するコンテキスト知識をLLMに伝達するためにコンテキスト内学習を使用する。
我々のフレームワークは、構造化されたプロンプトとシステム設定を通じて、専門家に非専門家や技術情報で理解できる1つの応答説明をカプセル化します。
本フレームワークの有効性を示すため,40以上のデータ,モデル,XAIの組み合わせを用いた厳密なベンチマークにより,健全なシナリオのクラスタリング分析を行う。
枠組みの説明を包括的・人間フレンドリに評価することで,地平線説明との強い相関関係(Spearman rank correlation=0.92)と,ユーザスタディ(N=56。
LLMをHCXAIイネーブラーとして信頼していることは、我々のフレームワークが上述のギャップを橋渡しし、総合的な評価によって確認される。
一 基礎的XAI手法と整合した高品質な技術的説明
(II)非専門家に対する明確な、効率的、解釈可能な人間中心の説明。
関連論文リスト
- Explainability in Context: A Multilevel Framework Aligning AI Explanations with Stakeholder with LLMs [11.11196150521188]
本稿では、AIに対する信頼が、説明書の設計と提供にどのように影響するかを論じる。
このフレームワークは、アルゴリズムとドメインベース、人間中心、社会的説明責任の3つのレイヤで構成されている。
論文 参考訳(メタデータ) (2025-06-06T08:54:41Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Making Sense of the Unsensible: Reflection, Survey, and Challenges for XAI in Large Language Models Toward Human-Centered AI [11.454716478837014]
説明可能なAI(XAI)は、大きな言語モデル(LLM)と多様な利害関係者の不透明な推論の間の重要なインターフェースとして機能する。
本稿では, LLM における XAI の総合的考察と調査について, 説明可能性の本質は何か? 技術的・倫理的側面は何か?
我々は、説明責任は、信頼を育み、競争を可能とし、AIシステムを制度的な説明責任と人間中心の意思決定と整合させる、市民のインフラに進化しなければならないと論じている。
論文 参考訳(メタデータ) (2025-05-18T17:30:10Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - A Unified Framework for Evaluating the Effectiveness and Enhancing the Transparency of Explainable AI Methods in Real-World Applications [2.0681376988193843]
AIモデルの特徴である"ブラックボックス"は、解釈可能性、透明性、信頼性を制約する。
本研究では,AIモデルによる説明の正確性,解釈可能性,堅牢性,公正性,完全性を評価するための統合XAI評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-05T05:30:10Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。