論文の概要: Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI)
- arxiv url: http://arxiv.org/abs/2211.00103v1
- Date: Mon, 31 Oct 2022 19:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 14:29:15.748095
- Title: Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI)
- Title(参考訳): 対物説明のための人間認知レベルに基づく実験設計 (xai) に向けて
- Authors: Muhammad Suffian, Muhammad Yaseen Khan, Alessandro Bogliolo
- Abstract要約: XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) has recently gained a swell of
interest, as many Artificial Intelligence (AI) practitioners and developers are
compelled to rationalize how such AI-based systems work. Decades back, most XAI
systems were developed as knowledge-based or expert systems. These systems
assumed reasoning for the technical description of an explanation, with little
regard for the user's cognitive capabilities. The emphasis of XAI research
appears to have turned to a more pragmatic explanation approach for better
understanding. An extensive area where cognitive science research may
substantially influence XAI advancements is evaluating user knowledge and
feedback, which are essential for XAI system evaluation. To this end, we
propose a framework to experiment with generating and evaluating the
explanations on the grounds of different cognitive levels of understanding. In
this regard, we adopt Bloom's taxonomy, a widely accepted model for assessing
the user's cognitive capability. We utilize the counterfactual explanations as
an explanation-providing medium encompassed with user feedback to validate the
levels of understanding about the explanation at each cognitive level and
improvise the explanation generation methods accordingly.
- Abstract(参考訳): 説明可能な人工知能(XAI)は最近、多くの人工知能(AI)の実践者や開発者は、そのようなAIベースのシステムがどのように機能するかを合理化せざるを得ないため、関心を集めている。
数十年後、ほとんどのXAIシステムは知識ベースまたはエキスパートシステムとして開発された。
これらのシステムは、ユーザの認知能力にほとんど関係なく、説明の技術的記述の推論を仮定した。
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、XAIシステム評価に不可欠なユーザ知識とフィードバックを評価することである。
そこで本稿では,理解の認知レベルの違いに基づいて,説明を生成・評価する枠組みを提案する。
本研究では,ユーザの認知能力を評価するモデルとして広く受け入れられているブルーム分類法を採用する。
本研究では, ユーザフィードバックを取り入れた説明提示媒体として, 各認知レベルにおける説明の理解レベルを検証するとともに, 説明生成方法の即興化を図る。
関連論文リスト
- Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Toward enriched Cognitive Learning with XAI [44.99833362998488]
本稿では,人工知能(AI)ツールによる認知学習のためのインテリジェントシステム(CL-XAI)を提案する。
CL-XAIの使用は、学習者が問題解決スキルを高めるために問題に取り組むゲームインスパイアされた仮想ユースケースで説明される。
論文 参考訳(メタデータ) (2023-12-19T16:13:47Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z) - Principles of Explanation in Human-AI Systems [0.7768952514701895]
説明可能な人工知能(XAI)は、現代のAIとMLシステムの開発に応えて再導入されている。
XAIシステムは、しばしばアルゴリズムに焦点を当てており、説明可能性に関する基本的な未テストのアイデアを実装したアルゴリズムの開始と終了である。
我々は,まず,XAIシステムの設計,テスト,実装に関する人間中心の原則から始めることを提案する。
論文 参考訳(メタデータ) (2021-02-09T17:43:45Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Artificial Intelligence: a Systematic Review [2.741266294612776]
機械学習は、非常に正確なモデルの開発につながったが、説明可能性や解釈可能性に欠けていた。
この問題に対処するための多くの手法が提案され、開発され、テストされている。
この体系的なレビューは、これらの手法を階層的な分類システムでクラスタリングすることで、知識の体系に寄与する。
論文 参考訳(メタデータ) (2020-05-29T21:41:12Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。