論文の概要: Adding Why to What? Analyses of an Everyday Explanation
- arxiv url: http://arxiv.org/abs/2308.04187v1
- Date: Tue, 8 Aug 2023 11:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 13:05:27.863252
- Title: Adding Why to What? Analyses of an Everyday Explanation
- Title(参考訳): 何に理由を加えるか?
日常的な説明の分析
- Authors: Lutz Terfloth, Michael Schaffer, Heike M. Buhl, Carsten Schulte
- Abstract要約: この理論を分析的枠組みとして20のゲーム説明について検討した。
説明者はまずゲームの物理的側面(アーキテクチャ)に焦点を合わせ、その後は関連性(Relevance)の側面にのみ焦点を当てた。
両者の対応のシフトは、説明目標、出現する誤解、説明者の知識要求によって正当化された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In XAI it is important to consider that, in contrast to explanations for
professional audiences, one cannot assume common expertise when explaining for
laypeople. But such explanations between humans vary greatly, making it
difficult to research commonalities across explanations. We used the dual
nature theory, a techno-philosophical approach, to cope with these challenges.
According to it, one can explain, for example, an XAI's decision by addressing
its dual nature: by focusing on the Architecture (e.g., the logic of its
algorithms) or the Relevance (e.g., the severity of a decision, the
implications of a recommendation). We investigated 20 game explanations using
the theory as an analytical framework. We elaborate how we used the theory to
quickly structure and compare explanations of technological artifacts. We
supplemented results from analyzing the explanation contents with results from
a video recall to explore how explainers justified their explanation. We found
that explainers were focusing on the physical aspects of the game first
(Architecture) and only later on aspects of the Relevance. Reasoning in the
video recalls indicated that EX regarded the focus on the Architecture as
important for structuring the explanation initially by explaining the basic
components before focusing on more complex, intangible aspects. Shifting
between addressing the two sides was justified by explanation goals, emerging
misunderstandings, and the knowledge needs of the explainee. We discovered
several commonalities that inspire future research questions which, if further
generalizable, provide first ideas for the construction of synthetic
explanations.
- Abstract(参考訳): xaiでは、専門的なオーディエンスのための説明とは対照的に、在職者について説明するとき、共通の専門知識を想定できないと考えることが重要である。
しかし、人間間の説明は大きく異なるため、説明の共通性の研究は困難である。
技術哲学的なアプローチである双対自然理論を使って、これらの課題に対処しました。
アーキテクチャ(例えば、アルゴリズムのロジック)や関連性(例えば、決定の重大さ、レコメンデーションの意味)に焦点を当てることによって、XAIの2つの性質に対処することで、XAIの決定を説明することができる。
本理論を分析的枠組みとして20種類のゲーム説明を検討した。
我々は、この理論を使って、技術的アーティファクトの説明を素早く構造化し、比較した。
ビデオリコールの結果から説明内容を分析した結果を補足し,説明者による説明の正当性について検討した。
説明者はまずゲームの物理的側面(アーキテクチャ)に注目し、その後にのみ関連性の側面に注目することを発見した。
ビデオのリコールでは、EXがアーキテクチャに重点を置くことは、より複雑で無形な側面にフォーカスする前に、まずは基本的なコンポーネントを説明することによって、説明を構築する上で重要であると見なされた。
両者の対応の切り替えは、説明の目標、新たな誤解、説明者の知識ニーズによって正当化された。
我々は,今後の研究課題を喚起するいくつかの共通点を発見し,さらに一般化すれば,合成説明の構成に第一のアイデアを与える。
関連論文リスト
- Explainers' Mental Representations of Explainees' Needs in Everyday Explanations [0.0]
説明において、説明者は説明者の知識の発達と説明に関する関心の変化を精神的に表現する。
XAIは、同様の方法で説明者の要求に反応できるべきです。
本研究では,工芸品の日常的説明における説明者の心的表現について検討した。
論文 参考訳(メタデータ) (2024-11-13T10:53:07Z) - Understanding XAI Through the Philosopher's Lens: A Historical Perspective [5.839350214184222]
論理的帰納的モデルから統計的説明モデルまで,両領域で段階的に進行したことを示す。
同様の概念は、例えば、説明と理解の関係と実用的要因の重要性の両方に独立して現れている。
論文 参考訳(メタデータ) (2024-07-26T14:44:49Z) - Forms of Understanding of XAI-Explanations [2.887772793510463]
本稿では、説明可能な人工知能(XAI)の文脈における理解形態のモデル提示を目的とする。
2種類の理解は説明の可能な結果、すなわち有効性と理解の可能な結果と見なされる。
XAIにおける理解の特別な課題について論じる。
論文 参考訳(メタデータ) (2023-11-15T08:06:51Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths [128.13034600968257]
本稿では、まず、推論チェーンでテキストブリッジとして機能する基礎概念を抽出する手法を提案する。
推論プロセスを容易にするために,文と橋梁の概念の関連性を構築するために,外部コモンセンス知識を利用する。
橋梁の概念抽出モデルを設計し,まず三重奏を採点し,その経路を導出し,さらに弱い監督で橋梁の概念を選定する。
論文 参考訳(メタデータ) (2020-09-24T15:27:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。