論文の概要: Forms of Understanding for XAI-Explanations
- arxiv url: http://arxiv.org/abs/2311.08760v2
- Date: Thu, 29 May 2025 13:38:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.230208
- Title: Forms of Understanding for XAI-Explanations
- Title(参考訳): XAI-Explanations の理解形態
- Authors: Hendrik Buschmeier, Heike M. Buhl, Friederike Kern, Angela Grimminger, Helen Beierling, Josephine Fisher, André Groß, Ilona Horwath, Nils Klowait, Stefan Lazarov, Michael Lenke, Vivien Lohmer, Katharina Rohlfing, Ingrid Scharlau, Amit Singh, Lutz Terfloth, Anna-Lisa Vollmer, Yu Wang, Annedore Wilmes, Britta Wrede,
- Abstract要約: 説明可能性(Explainability)は、コンピュータ科学と人工知能において重要なトピックとなり、説明可能な人工知能(XAI)と呼ばれるサブフィールドへとつながった。
理解」の意味はいまだ明確に定義されておらず、概念そのものが科学的研究の対象になることはめったにない。
この概念的論文は、XAIの解説などに対する理解形態のモデル提示を目的としている。
- 参考スコア(独自算出の注目度): 2.8461500925627226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability has become an important topic in computer science and artificial intelligence, leading to a subfield called Explainable Artificial Intelligence (XAI). The goal of providing or seeking explanations is to achieve (better) 'understanding' on the part of the explainee. However, what it means to 'understand' is still not clearly defined, and the concept itself is rarely the subject of scientific investigation. This conceptual article aims to present a model of forms of understanding for XAI-explanations and beyond. From an interdisciplinary perspective bringing together computer science, linguistics, sociology, philosophy and psychology, a definition of understanding and its forms, assessment, and dynamics during the process of giving everyday explanations are explored. Two types of understanding are considered as possible outcomes of explanations, namely enabledness, 'knowing how' to do or decide something, and comprehension, 'knowing that' -- both in different degrees (from shallow to deep). Explanations regularly start with shallow understanding in a specific domain and can lead to deep comprehension and enabledness of the explanandum, which we see as a prerequisite for human users to gain agency. In this process, the increase of comprehension and enabledness are highly interdependent. Against the background of this systematization, special challenges of understanding in XAI are discussed.
- Abstract(参考訳): 説明可能性(Explainability)は、コンピュータ科学と人工知能において重要なトピックとなり、説明可能な人工知能(XAI)と呼ばれるサブフィールドへとつながった。
説明を提供したり、求めたりする目的は、説明者の部分で「理解」を達成することである。
しかし、「理解」の意味はいまだ明確に定義されておらず、概念そのものが科学的研究の対象になることはめったにない。
この概念的論文は、XAIの解説などに対する理解形態のモデル提示を目的としている。
コンピュータ科学、言語学、社会学、哲学、心理学を融合した学際的な視点から、日常的な説明を行う過程における理解の定義とその形態、評価、ダイナミクスについて考察する。
2つのタイプの理解は、説明の可能な結果、すなわち「有効性」、すなわち「方法を知る」、または何かを決定するかを知ること、そして「それを知る」という理解を、それぞれ異なる程度(浅いものから深いものまで)で得るものとみなす。
説明は、特定のドメインの浅い理解から始まり、説明文の深い理解と有効性につながる可能性がある。
このプロセスでは、理解力と有効性の増加は、非常に相互依存的である。
この体系化の背景には、XAIにおける理解に関する特別な課題が議論されている。
関連論文リスト
- Explainers' Mental Representations of Explainees' Needs in Everyday Explanations [0.0]
説明において、説明者は説明者の知識の発達と説明に関する関心の変化を精神的に表現する。
XAIは、同様の方法で説明者の要求に反応できるべきです。
本研究では,工芸品の日常的説明における説明者の心的表現について検討した。
論文 参考訳(メタデータ) (2024-11-13T10:53:07Z) - Adding Why to What? Analyses of an Everyday Explanation [0.0]
この理論を分析的枠組みとして20のゲーム説明について検討した。
説明者はまずゲームの物理的側面(アーキテクチャ)に焦点を合わせ、その後は関連性(Relevance)の側面にのみ焦点を当てた。
両者の対応のシフトは、説明目標、出現する誤解、説明者の知識要求によって正当化された。
論文 参考訳(メタデータ) (2023-08-08T11:17:22Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - A Means-End Account of Explainable Artificial Intelligence [0.0]
XAIは機械学習の手法について不透明な説明を求めている。
著者は、説明すべきもの(トピック)、説明すべきもの(ステークホルダ)、説明すべきもの(インストラクション)、説明すべきもの(ゴール)について意見が一致しない。
論文 参考訳(メタデータ) (2022-08-09T09:57:42Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Explainability Is in the Mind of the Beholder: Establishing the
Foundations of Explainable Artificial Intelligence [11.472707084860875]
我々は、背景知識に基づいて解釈された透明な洞察(ブラックボックス)に適用する(論理的)推論として説明可能性を定義する。
我々は、透明性と予測力のトレードオフを再考し、アンテホックやポストホックの解説者への影響について述べる。
我々は、人間中心の説明可能性からさまざまなアイデアに基づいて、解釈可能性を必要とするかもしれない機械学習ワークフローのコンポーネントについて論じる。
論文 参考訳(メタデータ) (2021-12-29T09:21:33Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Understanding understanding: a renormalization group inspired model of
(artificial) intelligence [0.0]
本稿では,科学的および人工知能システムにおける理解の意味について述べる。
理解の数学的定義を与え、共通知恵とは対照的に、入力集合上の確率空間を定義する。
この枠組みに科学的理解がどのように適合するかを示し、科学的課題とパターン認識の違いを実証する。
論文 参考訳(メタデータ) (2020-10-26T11:11:46Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。