論文の概要: Forms of Understanding of XAI-Explanations
- arxiv url: http://arxiv.org/abs/2311.08760v1
- Date: Wed, 15 Nov 2023 08:06:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 16:46:23.316872
- Title: Forms of Understanding of XAI-Explanations
- Title(参考訳): XAI-Explanationsの理解形態
- Authors: Hendrik Buschmeier, Heike M. Buhl, Friederike Kern, Angela Grimminger,
Helen Beierling, Josephine Fisher, Andr\'e Gro{\ss}, Ilona Horwath, Nils
Klowait, Stefan Lazarov, Michael Lenke, Vivien Lohmer, Katharina Rohlfing,
Ingrid Scharlau, Amit Singh, Lutz Terfloth, Anna-Lisa Vollmer, Yu Wang,
Annedore Wilmes, Britta Wrede
- Abstract要約: 本稿では、説明可能な人工知能(XAI)の文脈における理解形態のモデル提示を目的とする。
2種類の理解は説明の可能な結果、すなわち有効性と理解の可能な結果と見なされる。
XAIにおける理解の特別な課題について論じる。
- 参考スコア(独自算出の注目度): 2.887772793510463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability has become an important topic in computer science and
artificial intelligence, leading to a subfield called Explainable Artificial
Intelligence (XAI). The goal of providing or seeking explanations is to achieve
(better) 'understanding' on the part of the explainee. However, what it means
to 'understand' is still not clearly defined, and the concept itself is rarely
the subject of scientific investigation. This conceptual article aims to
present a model of forms of understanding in the context of XAI and beyond.
From an interdisciplinary perspective bringing together computer science,
linguistics, sociology, and psychology, a definition of understanding and its
forms, assessment, and dynamics during the process of giving everyday
explanations are explored. Two types of understanding are considered as
possible outcomes of explanations, namely enabledness, 'knowing how' to do or
decide something, and comprehension, 'knowing that' -- both in different
degrees (from shallow to deep). Explanations regularly start with shallow
understanding in a specific domain and can lead to deep comprehension and
enabledness of the explanandum, which we see as a prerequisite for human users
to gain agency. In this process, the increase of comprehension and enabledness
are highly interdependent. Against the background of this systematization,
special challenges of understanding in XAI are discussed.
- Abstract(参考訳): 説明可能性(Explainability)は、コンピュータ科学と人工知能において重要なトピックとなり、説明可能な人工知能(XAI)と呼ばれるサブフィールドへとつながった。
説明を提供したり、求めたりする目的は、説明者の部分で「理解」を達成することである。
しかし、「理解」の意味はまだ明確に定義されておらず、概念そのものが科学的調査の対象となることは滅多にない。
この概念的論文は、XAI以降の文脈における理解形態のモデル提示を目的とする。
コンピュータ科学、言語学、社会学、心理学を融合した学際的な視点から、日常的な説明を行う過程における理解とその形態、評価、ダイナミクスの定義を探求する。
2つのタイプの理解は、説明の可能な結果として、すなわち「有効性」、すなわち「方法を知る」、または「それを知る」という2つの方法が考えられる。
説明は、特定のドメインの浅い理解から始まり、説明文の深い理解と有効性につながる可能性がある。
この過程において、理解と有効性の増大は非常に相互依存的である。
この体系化の背景には、XAIにおける理解に関する特別な課題が議論されている。
関連論文リスト
- Explainers' Mental Representations of Explainees' Needs in Everyday Explanations [0.0]
説明において、説明者は説明者の知識の発達と説明に関する関心の変化を精神的に表現する。
XAIは、同様の方法で説明者の要求に反応できるべきです。
本研究では,工芸品の日常的説明における説明者の心的表現について検討した。
論文 参考訳(メタデータ) (2024-11-13T10:53:07Z) - Adding Why to What? Analyses of an Everyday Explanation [0.0]
この理論を分析的枠組みとして20のゲーム説明について検討した。
説明者はまずゲームの物理的側面(アーキテクチャ)に焦点を合わせ、その後は関連性(Relevance)の側面にのみ焦点を当てた。
両者の対応のシフトは、説明目標、出現する誤解、説明者の知識要求によって正当化された。
論文 参考訳(メタデータ) (2023-08-08T11:17:22Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - A Means-End Account of Explainable Artificial Intelligence [0.0]
XAIは機械学習の手法について不透明な説明を求めている。
著者は、説明すべきもの(トピック)、説明すべきもの(ステークホルダ)、説明すべきもの(インストラクション)、説明すべきもの(ゴール)について意見が一致しない。
論文 参考訳(メタデータ) (2022-08-09T09:57:42Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Explainability Is in the Mind of the Beholder: Establishing the
Foundations of Explainable Artificial Intelligence [11.472707084860875]
我々は、背景知識に基づいて解釈された透明な洞察(ブラックボックス)に適用する(論理的)推論として説明可能性を定義する。
我々は、透明性と予測力のトレードオフを再考し、アンテホックやポストホックの解説者への影響について述べる。
我々は、人間中心の説明可能性からさまざまなアイデアに基づいて、解釈可能性を必要とするかもしれない機械学習ワークフローのコンポーネントについて論じる。
論文 参考訳(メタデータ) (2021-12-29T09:21:33Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Understanding understanding: a renormalization group inspired model of
(artificial) intelligence [0.0]
本稿では,科学的および人工知能システムにおける理解の意味について述べる。
理解の数学的定義を与え、共通知恵とは対照的に、入力集合上の確率空間を定義する。
この枠組みに科学的理解がどのように適合するかを示し、科学的課題とパターン認識の違いを実証する。
論文 参考訳(メタデータ) (2020-10-26T11:11:46Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。