論文の概要: Who wants what and how: a Mapping Function for Explainable Artificial
Intelligence
- arxiv url: http://arxiv.org/abs/2302.03180v1
- Date: Tue, 7 Feb 2023 01:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 17:55:13.000206
- Title: Who wants what and how: a Mapping Function for Explainable Artificial
Intelligence
- Title(参考訳): 説明可能な人工知能のためのマッピング機能
- Authors: Maryam Hashemi
- Abstract要約: 本研究の目的は、既存のXAI研究のレビューを行い、XAI手法の分類を提示することである。
この研究は、XAIユーザを適切な方法で接続し、現在のXAIアプローチと望ましい特性を関連付けることを目的とする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing complexity of AI systems has led to the growth of the field of
explainable AI (XAI), which aims to provide explanations and justifications for
the outputs of AI algorithms. These methods mainly focus on feature importance
and identifying changes that can be made to achieve a desired outcome.
Researchers have identified desired properties for XAI methods, such as
plausibility, sparsity, causality, low run-time, etc. The objective of this
study is to conduct a review of existing XAI research and present a
classification of XAI methods. The study also aims to connect XAI users with
the appropriate method and relate desired properties to current XAI approaches.
The outcome of this study will be a clear strategy that outlines how to choose
the right XAI method for a particular goal and user and provide a personalized
explanation for users.
- Abstract(参考訳): AIシステムの複雑さの増大は、AIアルゴリズムの出力に関する説明と正当化を提供することを目的とした、説明可能なAI(XAI)分野の成長につながった。
これらの手法は主に機能の重要性を重視し、望ましい結果を達成するためにできる変更を識別する。
研究者は、可視性、疎性、因果性、低実行時間など、XAIメソッドの望ましい特性を特定した。
本研究の目的は,既存のXAI研究のレビューを行い,XAI手法の分類を示すことである。
この研究は、XAIユーザを適切な方法で結びつけ、現在のXAIアプローチと望ましい特性を関連付けることを目的とする。
本研究の結果は,特定の目標とユーザに対して適切なXAIメソッドを選択し,ユーザに対してパーソナライズされた説明を提供するための,明確な戦略である。
関連論文リスト
- How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Strategies to exploit XAI to improve classification systems [0.0]
XAIは、AIモデルの意思決定プロセスに関する洞察を提供することを目的としている。
ほとんどのXAI文献は、AIシステムを説明する方法に焦点を当てているが、AIシステムを改善するためにXAIメソッドをどのように活用するかについては、あまり注目されていない。
論文 参考訳(メタデータ) (2023-06-09T10:38:26Z) - Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals [19.268536451101912]
非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
論文 参考訳(メタデータ) (2023-02-10T19:35:57Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainable Artificial Intelligence (XAI): An Engineering Perspective [0.0]
XAIは、いわゆるブラックボックスAIアルゴリズムをホワイトボックスアルゴリズムに変換するテクニックと方法のセットです。
XAIのステークホルダを議論し、エンジニアリングの観点からXAIの数学的輪郭を説明します。
この研究は、XAIの分野における研究の新しい道を特定するための探索的研究です。
論文 参考訳(メタデータ) (2021-01-10T19:49:12Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。