論文の概要: SpecXAI -- Spectral interpretability of Deep Learning Models
- arxiv url: http://arxiv.org/abs/2302.09949v1
- Date: Mon, 20 Feb 2023 12:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:23:26.962340
- Title: SpecXAI -- Spectral interpretability of Deep Learning Models
- Title(参考訳): SpecXAI - 深層学習モデルのスペクトル解釈可能性
- Authors: Stefan Druc, Peter Wooldridge, Adarsh Krishnamurthy, Soumik Sarkar,
Aditya Balu
- Abstract要約: XAIは、モデルの難解な性質を誘惑し、それらの行動に対する理解のレベルを促進する技術を開発しようとしている。
ここでは、SpecXAIと呼ぶフレームワークの形で、XAIメソッドへのコントリビューションを示す。
このフレームワークは,ネットワークの理解だけでなく,線形解釈可能なシンボル表現にも利用できることを示す。
- 参考スコア(独自算出の注目度): 11.325580593182414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning is becoming increasingly adopted in business and industry due
to its ability to transform large quantities of data into high-performing
models. These models, however, are generally regarded as black boxes, which, in
spite of their performance, could prevent their use. In this context, the field
of eXplainable AI attempts to develop techniques that temper the impenetrable
nature of the models and promote a level of understanding of their behavior.
Here we present our contribution to XAI methods in the form of a framework that
we term SpecXAI, which is based on the spectral characterization of the entire
network. We show how this framework can be used to not only understand the
network but also manipulate it into a linear interpretable symbolic
representation.
- Abstract(参考訳): 大量のデータをハイパフォーマンスなモデルに変換する能力によって、ビジネスや業界ではディープラーニングがますます採用されている。
しかし、これらのモデルは一般にブラックボックスと見なされ、性能にもかかわらず使用を妨げられる可能性がある。
この文脈では、eXplainable AIの分野は、モデルの難解な性質を誘惑し、それらの振る舞いの理解のレベルを促進する技術を開発しようとしている。
本稿では,ネットワーク全体のスペクトル特性に基づくSpecXAIというフレームワークの形で,XAI手法へのコントリビューションを示す。
本稿では,このフレームワークがネットワークを理解するだけでなく,それを線形解釈可能な記号表現に操作できることを示す。
関連論文リスト
- Explainable Deep Learning Framework for Human Activity Recognition [3.9146761527401424]
本稿では,HARモデルの解釈性と有効性を高めるモデル非依存フレームワークを提案する。
競争力のあるデータ拡張を実装することで、我々のフレームワークはモデル決定の直感的でアクセスしやすい説明を提供する。
論文 参考訳(メタデータ) (2024-08-21T11:59:55Z) - Towards Compositional Interpretability for XAI [3.3768167170511587]
本稿では,カテゴリ理論に基づくAIモデルとその解釈可能性の定義手法を提案する。
我々は、幅広いAIモデルを構成モデルと比較する。
標準の'本質的に解釈可能な'モデルを作るものは、最も明確に図式化されます。
論文 参考訳(メタデータ) (2024-06-25T14:27:03Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Greybox XAI: a Neural-Symbolic learning framework to produce
interpretable predictions for image classification [6.940242990198]
Greybox XAIは、シンボリック知識ベース(KB)を使うことで、DNNと透明モデルを構成するフレームワークである。
我々は、XAIの普遍的基準が欠如している問題に、説明が何であるかを形式化することで対処する。
この新しいアーキテクチャがどのように正確で、いくつかのデータセットで説明可能であるかを示す。
論文 参考訳(メタデータ) (2022-09-26T08:55:31Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - EXplainable Neural-Symbolic Learning (X-NeSyL) methodology to fuse deep
learning representations with expert knowledge graphs: the MonuMAI cultural
heritage use case [13.833923272291853]
本稿では,記号表現と深部表現の両方を学習するためのeXplainable Neural-symbolic Learning (X-NeSyL)手法を提案する。
X-NeSyL手法は、それぞれ推論時と訓練時の2つの説明概念の具体的使用を含む。
MonuMAIデータセットを用いたX-NeSyL手法を記念碑的ファサード画像分類に導入し,説明性と性能の向上を実証した。
論文 参考訳(メタデータ) (2021-04-24T09:06:08Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。