論文の概要: Survey for Categorising Explainable AI Studies Using Data Analysis Task Frameworks
- arxiv url: http://arxiv.org/abs/2507.10208v1
- Date: Mon, 14 Jul 2025 12:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.86457
- Title: Survey for Categorising Explainable AI Studies Using Data Analysis Task Frameworks
- Title(参考訳): データ分析タスクフレームワークを用いた説明可能なAI研究の分類に関する調査
- Authors: Hamzah Ziadeh, Hendrik Knoche,
- Abstract要約: 本稿では,XAI研究を3次元で分類・比較する手法を提案する。
主な課題は,タスクの不十分な記述,文脈のない研究,ターゲットユーザによるテスト不足である。
我々は,急速に成長する分野を解析するXAIコミュニティの能力を向上させるために,XAIタスクの設計と報告のための研究ガイドラインを提案する。
- 参考スコア(独自算出の注目度): 1.8087157239832476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research into explainable artificial intelligence (XAI) for data analysis tasks suffer from a large number of contradictions and lack of concrete design recommendations stemming from gaps in understanding the tasks that require AI assistance. In this paper, we drew on multiple fields such as visual analytics, cognition, and dashboard design to propose a method for categorising and comparing XAI studies under three dimensions: what, why, and who. We identified the main problems as: inadequate descriptions of tasks, context-free studies, and insufficient testing with target users. We propose that studies should specifically report on their users' domain, AI, and data analysis expertise to illustrate the generalisability of their findings. We also propose study guidelines for designing and reporting XAI tasks to improve the XAI community's ability to parse the rapidly growing field. We hope that our contribution can help researchers and designers better identify which studies are most relevant to their work, what gaps exist in the research, and how to handle contradictory results regarding XAI design.
- Abstract(参考訳): データ分析タスクのための説明可能な人工知能(XAI)の研究は、多くの矛盾と、AI支援を必要とするタスクの理解の欠如に起因する具体的な設計勧告の欠如に悩まされている。
本稿では,視覚分析,認知,ダッシュボード設計などの複数の分野について考察し,XAI研究を3次元で分類・比較する手法を提案する。
主な課題は,タスクの不十分な記述,文脈のない研究,ターゲットユーザによるテスト不足である。
本稿では,ユーザのドメイン,AI,データ分析に関する専門知識を具体的に報告し,それらの発見の汎用性を説明することを提案する。
また、急速に成長する分野を解析するXAIコミュニティの能力を向上させるために、XAIタスクを設計・報告するための研究ガイドラインを提案する。
我々の貢献によって、研究者やデザイナーは、どの研究が研究に最も関係しているのか、研究にどのようなギャップがあるのか、XAI設計に関する矛盾した結果にどのように対処するか、をよりよく特定できることを期待しています。
関連論文リスト
- User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Indexing Analytics to Instances: How Integrating a Dashboard can Support Design Education [14.45375751032367]
デザイン分析ダッシュボードをデザインインスタンスと統合した研究成果物と、学生がそれを作成するために使用するデザイン環境を開発する。
我々は、AIに基づくデザイン分析が、あるコースコンテキストにおけるインストラクターのアセスメントとフィードバック体験をどのようにサポートするかに対処する研究内容を開発する。
論文 参考訳(メタデータ) (2024-04-08T11:33:58Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - PyRCA: A Library for Metric-based Root Cause Analysis [66.72542200701807]
PyRCAは、AIOps(AIOps)のためのRoot Cause Analysis(RCA)のオープンソースの機械学習ライブラリである。
複雑なメトリクス因果依存性を明らかにし、インシデントの根本原因を自動的に特定する、包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-06-20T09:55:10Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Towards Human-centered Explainable AI: A Survey of User Studies for Model Explanations [18.971689499890363]
我々は過去5年間に人間によるXAI評価で97コア論文を特定し分析してきた。
我々の研究は、XAIがレコメンダシステムなど特定のアプリケーション領域で急速に普及していることを示している。
我々は,XAI研究者や実践者を対象としたユーザスタディの設計と実施に関する実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:53:00Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Should We Trust (X)AI? Design Dimensions for Structured Experimental
Evaluations [19.68184991543289]
本稿では、説明可能な人工知能(XAI)のアプローチを構造化評価するための設計次元を体系的に導出する。
それらは記述的な特徴づけを可能にし、異なる研究設計の比較を容易にする。
彼らはさらにXAIの設計空間を構造化し、XAIの厳密な研究に必要な正確な用語に収束した。
論文 参考訳(メタデータ) (2020-09-14T13:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。