論文の概要: Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability
- arxiv url: http://arxiv.org/abs/2306.08780v1
- Date: Wed, 14 Jun 2023 23:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 17:01:13.494097
- Title: Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability
- Title(参考訳): 説明可能性の説明:2階説明可能性による深層学習への深い行動可能な洞察に向けて
- Authors: E. Zhixuan Zeng, Hayden Gunraj, Sheldon Fernandez, Alexander Wong
- Abstract要約: 2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 70.60433013657693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability plays a crucial role in providing a more comprehensive
understanding of deep learning models' behaviour. This allows for thorough
validation of the model's performance, ensuring that its decisions are based on
relevant visual indicators and not biased toward irrelevant patterns existing
in training data. However, existing methods provide only instance-level
explainability, which requires manual analysis of each sample. Such manual
review is time-consuming and prone to human biases. To address this issue, the
concept of second-order explainable AI (SOXAI) was recently proposed to extend
explainable AI (XAI) from the instance level to the dataset level. SOXAI
automates the analysis of the connections between quantitative explanations and
dataset biases by identifying prevalent concepts. In this work, we explore the
use of this higher-level interpretation of a deep neural network's behaviour to
allows us to "explain the explainability" for actionable insights.
Specifically, we demonstrate for the first time, via example classification and
segmentation cases, that eliminating irrelevant concepts from the training set
based on actionable insights from SOXAI can enhance a model's performance.
- Abstract(参考訳): 説明責任は、ディープラーニングモデルの振る舞いをより包括的に理解する上で重要な役割を担います。
これにより、モデルのパフォーマンスの徹底的な検証が可能になり、その決定が関連する視覚的指標に基づいており、トレーニングデータに存在する無関係なパターンに偏らないことを保証する。
しかし、既存のメソッドはインスタンスレベルの説明可能性のみを提供しており、各サンプルを手動で分析する必要がある。
このような手作業によるレビューは時間がかかり、人間の偏見に傾向があります。
この問題に対処するため、最近2次説明可能なAI(SOXAI)の概念が提案され、説明可能なAI(XAI)をインスタンスレベルからデータセットレベルまで拡張した。
SOXAIは、一般的な概念を特定することによって、量的説明とデータセットバイアスの間の関係の分析を自動化する。
本研究では,ディープニューラルネットワークの振る舞いを高レベルに解釈することで,行動可能な洞察を「説明可能性を説明する」ことを可能にする。
具体的には,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることを,例分類とセグメンテーションケースを通じて初めて示す。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Predictability and Comprehensibility in Post-Hoc XAI Methods: A
User-Centered Analysis [6.606409729669314]
ポストホック説明可能性法は、ブラックボックス機械学習モデルの予測を明らかにすることを目的としている。
我々は、LIMEとSHAPの2つの広く使われているツールにおいて、理解性と予測可能性を評価するために、ユーザスタディを実施している。
モデル決定境界付近のサンプルに対して説明を行うと,SHAPの理解度が大幅に低下することがわかった。
論文 参考訳(メタデータ) (2023-09-21T11:54:20Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations [2.1485350418225244]
より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T19:00:01Z) - RELAX: Representation Learning Explainability [10.831313203043514]
本稿では、帰属に基づく表現の説明のための最初のアプローチであるRELAXを提案する。
ReLAXは、入力とマスクアウトされた自身のバージョンの間の表現空間における類似性を測定することで表現を説明する。
我々はRELAXの理論的解釈を提供し、教師なし学習を用いて訓練された特徴抽出器を新規に解析する。
論文 参考訳(メタデータ) (2021-12-19T14:51:31Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。