論文の概要: Holistic Explainable AI (H-XAI): Extending Transparency Beyond Developers in AI-Driven Decision Making
- arxiv url: http://arxiv.org/abs/2508.05792v1
- Date: Thu, 07 Aug 2025 19:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.990509
- Title: Holistic Explainable AI (H-XAI): Extending Transparency Beyond Developers in AI-Driven Decision Making
- Title(参考訳): ホロスティックな説明可能なAI(H-XAI):AI駆動意思決定における開発者を越えた透明性の拡張
- Authors: Kausik Lakkaraju, Siva Likitha Valluru, Biplav Srivastava,
- Abstract要約: 本稿では,従来のXAI手法と因果評価手法を統合する統合フレームワークであるH-XAI(H-XAI)を紹介し,対話的マルチメソッドプロセスとしての説明を支援する。
H-XAIは、ステークホルダーが一連の質問をしたり、仮説をテストしたり、モデル行動と自動的に構築されたランダムでバイアスのあるベースラインを比較することを可能にする。
インスタンスレベルの説明とグローバルな説明を組み合わせて、各ステークホルダの目標に適応し、個々の決定を理解し、グループレベルの偏見を評価し、摂動の下で堅牢性を評価する。
- 参考スコア(独自算出の注目度): 4.852258514542496
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Current eXplainable AI (XAI) methods largely serve developers, often focusing on justifying model outputs rather than supporting diverse stakeholder needs. A recent shift toward Evaluative AI reframes explanation as a tool for hypothesis testing, but still focuses primarily on operational organizations. We introduce Holistic-XAI (H-XAI), a unified framework that integrates causal rating methods with traditional XAI methods to support explanation as an interactive, multi-method process. H-XAI allows stakeholders to ask a series of questions, test hypotheses, and compare model behavior against automatically constructed random and biased baselines. It combines instance-level and global explanations, adapting to each stakeholder's goals, whether understanding individual decisions, assessing group-level bias, or evaluating robustness under perturbations. We demonstrate the generality of our approach through two case studies spanning six scenarios: binary credit risk classification and financial time-series forecasting. H-XAI fills critical gaps left by existing XAI methods by combining causal ratings and post-hoc explanations to answer stakeholder-specific questions at both the individual decision level and the overall model level.
- Abstract(参考訳): 現在のeXplainable AI(XAI)メソッドは、多くの場合、さまざまなステークホルダのニーズをサポートするのではなく、モデルアウトプットの正当化に重点を置いている。
評価AIへの最近のシフトは、仮説テストのツールとしての説明を再構築しているが、それでも主に運用組織に焦点を当てている。
本稿では,従来のXAI手法と因果評価手法を統合する統合フレームワークであるH-XAI(H-XAI)を紹介し,対話的マルチメソッドプロセスとしての説明を支援する。
H-XAIは、ステークホルダーが一連の質問をしたり、仮説をテストしたり、モデル行動と自動的に構築されたランダムでバイアスのあるベースラインを比較することを可能にする。
インスタンスレベルの説明とグローバルな説明を組み合わせて、各ステークホルダの目標に適応し、個々の決定を理解し、グループレベルの偏見を評価し、摂動の下で堅牢性を評価する。
本稿では、二元的信用リスク分類と金融時系列予測という6つのシナリオにまたがる2つのケーススタディを通して、このアプローチの汎用性を実証する。
H-XAIは、個々の意思決定レベルと全体モデルレベルの両方で、ステークホルダー固有の質問に答えるために、因果格付けとポストホックな説明を組み合わせることで、既存のXAI手法による致命的なギャップを埋める。
関連論文リスト
- Towards a Cascaded LLM Framework for Cost-effective Human-AI Decision-Making [55.2480439325792]
複数の専門分野にまたがってタスクを適応的に委譲するLLM決定フレームワークを提案する。
まず、deferral Policyは、ベースモデルの回答を受け入れるか、あるいは大きなモデルでそれを再生するかを決定する。
第2に、禁忌ポリシーは、カスケードモデル応答が十分に確実であるか、または人間の介入を必要とするかを判定する。
論文 参考訳(メタデータ) (2025-06-13T15:36:22Z) - VirtualXAI: A User-Centric Framework for Explainability Assessment Leveraging GPT-Generated Personas [0.07499722271664146]
eXplainable AI(XAI)の需要が増加し、AIモデルの解釈可能性、透明性、信頼性が向上した。
仮想ペルソナによる定量的ベンチマークと質的ユーザアセスメントを統合したフレームワークを提案する。
これにより、推定されたXAIスコアが得られ、与えられたシナリオに対して最適なAIモデルとXAIメソッドの両方にカスタマイズされたレコメンデーションが提供される。
論文 参考訳(メタデータ) (2025-03-06T09:44:18Z) - OpenHEXAI: An Open-Source Framework for Human-Centered Evaluation of Explainable Machine Learning [43.87507227859493]
本稿では,XAI 手法を人間中心で評価するオープンソースフレームワーク OpenHEXAI について述べる。
OpenHEAXIは、XAIメソッドの人間中心ベンチマークを促進するための、最初の大規模なインフラ構築である。
論文 参考訳(メタデータ) (2024-02-20T22:17:59Z) - Cloud-based XAI Services for Assessing Open Repository Models Under Adversarial Attacks [7.500941533148728]
計算コンポーネントとアセスメントタスクをパイプラインにカプセル化するクラウドベースのサービスフレームワークを提案する。
我々は、AIモデルの5つの品質特性を評価するために、XAIサービスの応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A System's Approach Taxonomy for User-Centred XAI: A Survey [0.6882042556551609]
本稿では,一般システム理論の原理に基づく総合的,包括的でユーザ中心のXAI分類法を提案する。
これは、開発者とエンドユーザの両方を含むすべてのユーザタイプに対するXAIアプローチの適切性を評価する基盤を提供する。
論文 参考訳(メタデータ) (2023-03-06T00:50:23Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。