論文の概要: A Comprehensive Perspective on Explainable AI across the Machine Learning Workflow
- arxiv url: http://arxiv.org/abs/2508.11529v1
- Date: Fri, 15 Aug 2025 15:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.060542
- Title: A Comprehensive Perspective on Explainable AI across the Machine Learning Workflow
- Title(参考訳): 機械学習ワークフローにおける説明可能なAIの総合的展望
- Authors: George Paterakis, Andrea Castellani, George Papoutsoglou, Tobias Rodemann, Ioannis Tsamardinos,
- Abstract要約: Holistic Explainable Artificial Intelligence (HXAI)は、データ分析ワークフローのすべてのステージに説明を埋め込む、ユーザ中心のフレームワークである。
HXAIは6つのコンポーネント(データ、分析設定、学習プロセス、モデル出力、モデル品質、通信チャネル)を単一の分類体系に統合する。
112項目の質問銀行がこれらのニーズをカバーしています。
- 参考スコア(独自算出の注目度): 1.269939585263915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence is reshaping science and industry, yet many users still regard its models as opaque "black boxes". Conventional explainable artificial-intelligence methods clarify individual predictions but overlook the upstream decisions and downstream quality checks that determine whether insights can be trusted. In this work, we present Holistic Explainable Artificial Intelligence (HXAI), a user-centric framework that embeds explanation into every stage of the data-analysis workflow and tailors those explanations to users. HXAI unifies six components (data, analysis set-up, learning process, model output, model quality, communication channel) into a single taxonomy and aligns each component with the needs of domain experts, data analysts and data scientists. A 112-item question bank covers these needs; our survey of contemporary tools highlights critical coverage gaps. Grounded in theories of human explanation, principles from human-computer interaction and findings from empirical user studies, HXAI identifies the characteristics that make explanations clear, actionable and cognitively manageable. A comprehensive taxonomy operationalises these insights, reducing terminological ambiguity and enabling rigorous coverage analysis of existing toolchains. We further demonstrate how AI agents that embed large-language models can orchestrate diverse explanation techniques, translating technical artifacts into stakeholder-specific narratives that bridge the gap between AI developers and domain experts. Departing from traditional surveys or perspective articles, this work melds concepts from multiple disciplines, lessons from real-world projects and a critical synthesis of the literature to advance a novel, end-to-end viewpoint on transparency, trustworthiness and responsible AI deployment.
- Abstract(参考訳): 人工知能は科学と産業を変えつつあるが、多くのユーザーはまだそのモデルを不透明な「ブラックボックス」と見なしている。
従来の説明可能な人工知能法は、個々の予測を明確にするが、上流の判断と下流の品質チェックを見落とし、洞察が信頼できるかどうかを判断する。
本研究では、HXAI(Holistic Explainable Artificial Intelligence)について紹介する。HXAIは、データ分析ワークフローのすべてのステージに説明を埋め込んで、それらの説明をユーザにカスタマイズする、ユーザ中心のフレームワークである。
HXAIは6つのコンポーネント(データ、分析セットアップ、学習プロセス、モデル出力、モデル品質、通信チャネル)を単一の分類にまとめ、各コンポーネントをドメインの専門家、データアナリスト、データサイエンティストのニーズに合わせる。
112項目の質問銀行がこれらのニーズをカバーしています。
HXAIは、人間の説明の理論、人間とコンピュータの相互作用の原理、経験的ユーザー研究の発見に基づいて、説明を明確にし、行動可能で、認知的に管理できる特徴を特定している。
包括的な分類学はこれらの知見を運用し、用語的曖昧さを減らし、既存のツールチェーンの厳密なカバレッジ分析を可能にする。
さらに、大規模言語モデルを組み込んだAIエージェントが、さまざまな説明テクニックを編成し、AI開発者とドメインエキスパートのギャップを埋めるステークホルダー固有の物語に技術的アーティファクトを翻訳する方法を実証する。
従来の調査やパースペクティブの記事とは別に、この研究は、複数の分野の概念、実世界のプロジェクトからの教訓、文学の批判的な合成を融合させ、透明性、信頼性、責任あるAIデプロイメントに関する、新しいエンドツーエンドの視点を前進させる。
関連論文リスト
- AIGI-Holmes: Towards Explainable and Generalizable AI-Generated Image Detection via Multimodal Large Language Models [78.08374249341514]
AI生成コンテンツ(AIGC)の急速な発展は、誤情報を拡散するAIGIの誤用につながった。
大規模で包括的なデータセットであるHolmes-Setを導入し、画像がAI生成されているかどうかを解説したインストラクションチューニングデータセットを含む。
本研究は,MLLMの構造化説明と品質管理によるデータ生成を効率化する,Multi-Expert Juryと呼ばれる効率的なデータアノテーション手法を提案する。
さらに,視覚専門家による事前学習,教師付き微調整,直接選好最適化を含む3段階学習フレームワークであるHolmes Pipelineを提案する。
論文 参考訳(メタデータ) (2025-07-03T14:26:31Z) - Mind the XAI Gap: A Human-Centered LLM Framework for Democratizing Explainable AI [3.301842921686179]
我々は,専門家や非専門家のニーズに合わせて,透明性と人間中心の説明を保証する枠組みを導入する。
本フレームワークは,専門家以外の専門家が理解可能な1つの応答説明と専門家への技術的情報にカプセル化されている。
論文 参考訳(メタデータ) (2025-06-13T21:41:07Z) - Explainable artificial intelligence (XAI): from inherent explainability to large language models [0.0]
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
論文 参考訳(メタデータ) (2025-01-17T06:16:57Z) - A Comprehensive Guide to Explainable AI: From Classical Models to LLMs [25.07463077055411]
説明可能な人工知能(XAI)は、AIシステムにおける透明性と解釈可能性の必要性の高まりに対処する。
決定木、線形回帰、サポートベクトルマシンといった従来のモデルの解釈可能性を探る。
本書は、SHAP、LIME、Grad-CAM、反実的説明、因果推論などの実践的なテクニックを提示する。
論文 参考訳(メタデータ) (2024-12-01T13:01:01Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Understanding Generative AI Content with Embedding Models [4.662332573448995]
ディープニューラルネットワーク(DNN)は、入力データを埋め込みと呼ばれる隠れた特徴ベクトルに変換することによって、機能を暗黙的に設計する。
実検体と人工知能(AI)が生み出すものの間に本質的な分離性が存在するという実証的証拠が見つかる。
論文 参考訳(メタデータ) (2024-08-19T22:07:05Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。