論文の概要: Reason to explain: Interactive contrastive explanations (REASONX)
- arxiv url: http://arxiv.org/abs/2305.18143v1
- Date: Mon, 29 May 2023 15:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:43:54.710267
- Title: Reason to explain: Interactive contrastive explanations (REASONX)
- Title(参考訳): 説明の理由:対話的コントラストの説明(REASONX)
- Authors: Laura State, Salvatore Ruggieri and Franco Turini
- Abstract要約: 制約論理プログラミング(CLP)に基づく説明ツールREASONXについて述べる。
REASONXは、背景知識によって拡張できる対話的な対照的な説明を提供する。
実例と論証的決定ルールを計算し、最も近い論証的な例を出力する。
- 参考スコア(独自算出の注目度): 5.156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many high-performing machine learning models are not interpretable. As they
are increasingly used in decision scenarios that can critically affect
individuals, it is necessary to develop tools to better understand their
outputs. Popular explanation methods include contrastive explanations. However,
they suffer several shortcomings, among others an insufficient incorporation of
background knowledge, and a lack of interactivity. While (dialogue-like)
interactivity is important to better communicate an explanation, background
knowledge has the potential to significantly improve their quality, e.g., by
adapting the explanation to the needs of the end-user. To close this gap, we
present REASONX, an explanation tool based on Constraint Logic Programming
(CLP). REASONX provides interactive contrastive explanations that can be
augmented by background knowledge, and allows to operate under a setting of
under-specified information, leading to increased flexibility in the provided
explanations. REASONX computes factual and constrative decision rules, as well
as closest constrative examples. It provides explanations for decision trees,
which can be the ML models under analysis, or global/local surrogate models of
any ML model. While the core part of REASONX is built on CLP, we also provide a
program layer that allows to compute the explanations via Python, making the
tool accessible to a wider audience. We illustrate the capability of REASONX on
a synthetic data set, and on a a well-developed example in the credit domain.
In both cases, we can show how REASONX can be flexibly used and tailored to the
needs of the user.
- Abstract(参考訳): 多くの高性能機械学習モデルは解釈できない。
個人に重大な影響を与えるような決定シナリオで使われるようになるにつれ、アウトプットをよりよく理解するためのツールを開発する必要がある。
一般的な説明法には対比的な説明がある。
しかし、背景知識の組み入れが不十分であり、相互作用性の欠如など、いくつかの欠点に悩まされている。
ダイアログのような)対話性は、説明をより良く伝えるために重要であるが、背景知識は、例えば、エンドユーザのニーズに説明を適用することによって、品質を大幅に改善する可能性がある。
このギャップを埋めるために,制約論理プログラミング(Constraint Logic Programming, CLP)に基づく説明ツールREASONXを提案する。
REASONXは、背景知識によって拡張可能な対話型コントラスト的説明を提供し、未特定情報の設定の下で動作可能であり、提供された説明の柔軟性が向上する。
REASONXは、実例と論証的決定規則を計算し、最も近い論証的な例を出力する。
分析対象のMLモデルである決定木や、任意のMLモデルのグローバル/ローカルサロゲートモデルの説明を提供する。
REASONXの中核部分はCLP上に構築されていますが、Pythonによる説明の計算を可能にするプログラム層も提供しています。
本稿では、合成データセット上でのREASONXの機能と、クレジットドメインにおける十分に発達した例について説明する。
どちらのケースでも、reasonxがどのように柔軟に使用され、ユーザのニーズに合わせて調整できるかを示せる。
関連論文リスト
- Incremental XAI: Memorable Understanding of AI with Incremental Explanations [13.460427339680168]
本稿では、人間の認知能力を活用して知識を蓄積し、より詳細な説明をインクリメンタルに受け取り、より詳細な説明を提供することを提案する。
我々はインクリメンタルXAIを導入し、一般的なインスタンスと非典型インスタンスの説明を自動的に分割する。
記憶力は、基本因子を再利用し、非典型例で示される因子の数を減らすことで改善される。
論文 参考訳(メタデータ) (2024-04-10T04:38:17Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - XplainLLM: A QA Explanation Dataset for Understanding LLM
Decision-Making [13.928951741632815]
大規模言語モデル(LLM)は、最近、自然言語理解タスクにおいて顕著な進歩を遂げた。
本稿では、新しい説明データセットを導入することにより、このプロセスに透明性をもたらすことを検討する。
我々のデータセットには12,102のQAEトリプルが含まれている。
論文 参考訳(メタデータ) (2023-11-15T00:34:28Z) - Declarative Reasoning on Explanations Using Constraint Logic Programming [12.039469573641217]
REASONXは制約論理プログラミング(CLP)に基づく説明法である
本稿では,ユーザに近いPythonレイヤとCLPレイヤで構成されるREASONXのアーキテクチャについて述べる。
REASONXのコア実行エンジンは論理理論の観点から宣言的意味論を持つPrologメタプログラムである。
論文 参考訳(メタデータ) (2023-09-01T12:31:39Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [0.7999703756441758]
グラフニューラルネットワークのための新鮮でフレキシブルなアンテホック説明器 RAGE を提案する。
RAGEは、予測に必要な完全な情報を含む分子サブ構造を効果的に識別することができる。
種々の分子分類タスクに関する実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。