論文の概要: Causality for Inherently Explainable Transformers: CAT-XPLAIN
- arxiv url: http://arxiv.org/abs/2206.14841v1
- Date: Wed, 29 Jun 2022 18:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 09:42:05.736328
- Title: Causality for Inherently Explainable Transformers: CAT-XPLAIN
- Title(参考訳): 連続説明可能な変圧器の因果性: CAT-XPLAIN
- Authors: Subash Khanal, Benjamin Brodie, Xin Xing, Ai-Ling Lin, Nathan Jacobs
- Abstract要約: 我々は、最近提案されたケースワイズ・ポストホック因果説明法を用いて、既存のトランスフォーマーアーキテクチャを本質的に説明可能にする。
我々のモデルは、与えられたインスタンスの入力空間におけるトップ$k$領域の形で、その決定に寄与する説明を提供する。
- 参考スコア(独自算出の注目度): 16.85887568521622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There have been several post-hoc explanation approaches developed to explain
pre-trained black-box neural networks. However, there is still a gap in
research efforts toward designing neural networks that are inherently
explainable. In this paper, we utilize a recently proposed instance-wise
post-hoc causal explanation method to make an existing transformer architecture
inherently explainable. Once trained, our model provides an explanation in the
form of top-$k$ regions in the input space of the given instance contributing
to its decision. We evaluate our method on binary classification tasks using
three image datasets: MNIST, FMNIST, and CIFAR. Our results demonstrate that
compared to the causality-based post-hoc explainer model, our inherently
explainable model achieves better explainability results while eliminating the
need of training a separate explainer model. Our code is available at
https://github.com/mvrl/CAT-XPLAIN.
- Abstract(参考訳): トレーニング済みのブラックボックスニューラルネットワークを説明するために、いくつかのポストホックな説明手法が開発されている。
しかしながら、本質的に説明可能なニューラルネットワークの設計への研究努力には、依然としてギャップがある。
本稿では,最近提案されたケースワイズ後因果説明手法を用いて,既存のトランスフォーマーアーキテクチャを本質的に説明可能にする。
トレーニングが完了すると、モデルはその決定に寄与するインスタンスの入力空間の上位$k$領域の形式で説明を提供する。
MNIST,FMNIST,CIFARの3つの画像データセットを用いて2値分類タスクの評価を行った。
その結果, 因果性に基づくポストホック説明モデルと比較して, 本モデルが説明可能性の向上を実現し, 個別説明モデルのトレーニングを不要とした。
私たちのコードはhttps://github.com/mvrl/cat-xplainで利用可能です。
関連論文リスト
- COCKATIEL: COntinuous Concept ranKed ATtribution with Interpretable
ELements for explaining neural net classifiers on NLP tasks [3.475906200620518]
COCKATIELは、新しい、ポストホック、コンセプトベース、モデルに依存しないXAI技術である。
NLP分類タスクでトレーニングされたニューラルネットモデルの最後の層から意味のある説明を生成する。
基礎となるモデルの精度を損なうことなく、新しいモデルをトレーニングする必要もない。
論文 参考訳(メタデータ) (2023-05-11T12:22:20Z) - ExaRanker: Explanation-Augmented Neural Ranker [67.4894325619275]
本研究は,ニューラルランサーが説明の恩恵を受けることを示す。
我々は、GPT-3.5のようなLCMを用いて、説明付き検索データセットを増強する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
論文 参考訳(メタデータ) (2023-01-25T11:03:04Z) - MEGAN: Multi-Explanation Graph Attention Network [1.1470070927586016]
マルチエクスラレーショングラフアテンションネットワーク(MEGAN)を提案する。
既存のグラフ説明可能性法とは異なり、ネットワークは複数のチャネルに沿ってノードとエッジの属性の説明を生成することができる。
我々の注意に基づくネットワークは完全に差別化可能であり、説明を指導的な方法で積極的に訓練することができる。
論文 参考訳(メタデータ) (2022-11-23T16:10:13Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Reliable Graph Neural Network Explanations Through Adversarial Training [10.323055385277877]
グラフニューラルネットワーク(GNN)の説明は大半がポストホックイントロスペクションによって進められている。
我々は、GNNの類似した訓練パラダイムを提案し、モデルの説明に対する各影響を分析する。
論文 参考訳(メタデータ) (2021-06-25T04:49:42Z) - Correcting Classification: A Bayesian Framework Using Explanation
Feedback to Improve Classification Abilities [2.0931163605360115]
説明は社会的であり、それは相互作用による知識の伝達である。
説明フィードバックを用いたベイズ畳み込みニューラルネットワーク(CNN)の訓練により、これらの困難を克服します。
提案手法は,このフィードバックを微調整に利用して,説明や分類が改善するモデルを修正する。
論文 参考訳(メタデータ) (2021-04-29T13:59:21Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。