論文の概要: Human-Centered Explainable AI (XAI): From Algorithms to User Experiences
- arxiv url: http://arxiv.org/abs/2110.10790v1
- Date: Wed, 20 Oct 2021 21:33:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 12:56:04.339045
- Title: Human-Centered Explainable AI (XAI): From Algorithms to User Experiences
- Title(参考訳): 人間中心型説明可能なAI(XAI):アルゴリズムからユーザエクスペリエンスへ
- Authors: Q. Vera Liao, Kush R. Varshney
- Abstract要約: 説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
- 参考スコア(独自算出の注目度): 29.10123472973571
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a technical sub-field of artificial intelligence (AI), explainable AI
(XAI) has produced a vast collection of algorithms in recent years. However,
explainability is an inherently human-centric property and the field is
starting to embrace inter-disciplinary perspectives and human-centered
approaches. As researchers and practitioners begin to leverage XAI algorithms
to build XAI applications, explainability has moved beyond a demand by data
scientists or researchers to comprehend the models they are developing, to
become an essential requirement for people to trust and adopt AI deployed in
numerous domains. Human-computer interaction (HCI) research and user experience
(UX) design in this area are therefore increasingly important. In this chapter,
we begin with a high-level overview of the technical landscape of XAI
algorithms, then selectively survey recent HCI work that takes human-centered
approaches to design, evaluate, provide conceptual and methodological tools for
XAI. We ask the question "what are human-centered approaches doing for XAI" and
highlight three roles that they should play in shaping XAI technologies: to
drive technical choices by understanding users' explainability needs, to
uncover pitfalls of existing XAI methods through empirical studies and inform
new methods, and to provide conceptual frameworks for human-compatible XAI.
- Abstract(参考訳): 人工知能(AI)の技術的サブフィールドとして、説明可能なAI(XAI)は近年、膨大な数のアルゴリズムを生み出している。
しかし、説明可能性は本質的に人間中心の性質であり、分野は学際的視点と人間中心的アプローチを受け入れ始めている。
研究者や実践者がXAIアルゴリズムを活用してXAIアプリケーションを構築し始めるにつれ、説明容易性は、開発中のモデルを理解するためのデータサイエンティストや研究者の要求を超えて、多くのドメインにデプロイされたAIを信頼し、採用するための必須要件となっている。
この領域におけるヒューマン・コンピュータ・インタラクション(HCI)の研究とユーザ・エクスペリエンス(UX)の設計はますます重要になっている。
本章では,XAIアルゴリズムの技術的展望を概観し,人間中心のアプローチでXAIの設計,評価,概念的,方法論的なツールを提供するHCIの最近の研究を選択的に調査する。
我々は,「XAIにとって人間中心のアプローチは何か」という問いに対して,XAI技術を形成する上で果たすべき役割を3つ挙げる。ユーザの説明可能性のニーズを理解することによって技術的選択を推進し,実証的研究を通じて既存のXAI手法の落とし穴を解き,新しい方法を通知し,人と互換性のあるXAIの概念的なフレームワークを提供する。
関連論文リスト
- How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals [19.268536451101912]
非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
論文 参考訳(メタデータ) (2023-02-10T19:35:57Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Human-centered Explainable AI: A Survey of User Studies for
Model Explanations [19.6851366307368]
我々は過去5年間に人間によるXAI評価で97コア論文を特定し分析してきた。
我々の研究は、XAIがレコメンダシステムなど特定のアプリケーション領域で急速に普及していることを示している。
我々は,XAI研究者や実践者を対象としたユーザスタディの設計と実施に関する実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:53:00Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Human-Centered AI for Data Science: A Systematic Approach [48.71756559152512]
HCAI(Human-Centered AI)は、さまざまなヒューマンタスクをサポートするAI技術の設計と実装を目的とした研究活動である。
データサイエンス(DS)に関する一連の研究プロジェクトを使ってHCAIにどのようにアプローチするかをケーススタディとして紹介する。
論文 参考訳(メタデータ) (2021-10-03T21:47:13Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - Human-centered Explainable AI: Towards a Reflective Sociotechnical
Approach [18.14698948294366]
我々は、人間を技術設計の中心に置くアプローチとして、人間中心の説明可能なAI(HCXAI)を紹介します。
それは、価値の相互作用、対人的ダイナミクス、そしてAIシステムの社会的に位置する性質を考慮し、人間の「誰」が誰であるかを包括的に理解する。
論文 参考訳(メタデータ) (2020-02-04T02:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。