論文の概要: Explanation as a process: user-centric construction of multi-level and
multi-modal explanations
- arxiv url: http://arxiv.org/abs/2110.03759v1
- Date: Thu, 7 Oct 2021 19:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 07:20:32.167729
- Title: Explanation as a process: user-centric construction of multi-level and
multi-modal explanations
- Title(参考訳): プロセスとしての説明:マルチレベルおよびマルチモーダル説明のユーザ中心構成
- Authors: Bettina Finzel, David E. Tafler, Stephan Scheele and Ute Schmid
- Abstract要約: 本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
- 参考スコア(独自算出の注目度): 0.34410212782758043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last years, XAI research has mainly been concerned with developing new
technical approaches to explain deep learning models. Just recent research has
started to acknowledge the need to tailor explanations to different contexts
and requirements of stakeholders. Explanations must not only suit developers of
models, but also domain experts as well as end users. Thus, in order to satisfy
different stakeholders, explanation methods need to be combined. While
multi-modal explanations have been used to make model predictions more
transparent, less research has focused on treating explanation as a process,
where users can ask for information according to the level of understanding
gained at a certain point in time. Consequently, an opportunity to explore
explanations on different levels of abstraction should be provided besides
multi-modal explanations. We present a process-based approach that combines
multi-level and multi-modal explanations. The user can ask for textual
explanations or visualizations through conversational interaction in a
drill-down manner. We use Inductive Logic Programming, an interpretable machine
learning approach, to learn a comprehensible model. Further, we present an
algorithm that creates an explanatory tree for each example for which a
classifier decision is to be explained. The explanatory tree can be navigated
by the user to get answers of different levels of detail. We provide a
proof-of-concept implementation for concepts induced from a semantic net about
living beings.
- Abstract(参考訳): 近年、XAI研究は主にディープラーニングモデルを説明するための新しい技術アプローチの開発に取り組んできた。
つい最近の研究は、利害関係者の異なるコンテキストと要件に説明を合わせる必要性を認識し始めた。
説明はモデルの開発者だけでなく、ドメインの専門家やエンドユーザにも当てはまる必要があります。
したがって、異なる利害関係者を満たすためには、説明方法を組み合わせる必要がある。
モデル予測をより透明にするために、マルチモーダルな説明が使われているが、ある時点で得られた理解レベルに応じて情報を求めるプロセスとして説明を扱う研究は少ない。
したがって、多モードな説明以外に、様々な抽象化のレベルを説明する機会を提供する必要がある。
マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
ユーザーは、対話的な対話を通じて、ドリルダウン方式でテキストの説明や視覚化を求めることができる。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
さらに,分類器決定が説明される各例について説明木を作成するアルゴリズムを提案する。
説明ツリーはユーザがナビゲートして、さまざまなレベルの詳細の回答を得ることができる。
生活に関する意味ネットから誘導される概念の概念実証実装を提供する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - May I Ask a Follow-up Question? Understanding the Benefits of Conversations in Neural Network Explainability [17.052366688978935]
自由形式の会話が静的な説明の理解を深めるかどうかを検討する。
参加者が3つの機械学習モデルから選択できる能力に会話が与える影響を計測する。
本研究は,自由形式の会話形式におけるモデル説明のカスタマイズの重要性を強調した。
論文 参考訳(メタデータ) (2023-09-25T09:00:38Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Explanation from Specification [3.04585143845864]
我々は、説明のタイプが仕様によって導かれるアプローチを定式化する。
議論理論を用いたベイズ的ネットワークの説明とグラフニューラルネットワークの説明の2つの例について論じる。
このアプローチは科学哲学における説明理論に動機付けられており、機械学習の役割に関する科学哲学における現在の疑問と関連づけられている。
論文 参考訳(メタデータ) (2020-12-13T23:27:48Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - Sequential Explanations with Mental Model-Based Policies [20.64968620536829]
本研究では,説明者の精神モデルに基づく説明を提供するための強化学習フレームワークを適用した。
我々は、説明が選ばれ、参加者に提示される新しいオンライン人間実験を行う。
以上の結果から,精神モデルに基づく政策は,複数のシーケンシャルな説明よりも解釈可能性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-17T14:43:46Z) - LIMEtree: Interactively Customisable Explanations Based on Local
Surrogate Multi-output Regression Trees [21.58324172085553]
LIMEtree と呼ばれるブラックボックス予測のためのモデル非依存的かつポストホックな局所的説明可能性手法を提案する。
画像中の物体検出を訓練したディープニューラルネットワーク上でアルゴリズムを検証し,LIME(Local Interpretable Model-Agnostic Explanations)と比較する。
本手法は局所的忠実度保証を伴い,多種多様な説明型を生成する。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。