論文の概要: Explaining Deep Learning Hidden Neuron Activations using Concept
Induction
- arxiv url: http://arxiv.org/abs/2301.09611v1
- Date: Mon, 23 Jan 2023 18:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 12:49:51.394999
- Title: Explaining Deep Learning Hidden Neuron Activations using Concept
Induction
- Title(参考訳): 概念誘導を用いた深層学習隠れニューロン活性化の解説
- Authors: Abhilekha Dalal, Md Kamruzzaman Sarker, Adrita Barua, and Pascal
Hitzler
- Abstract要約: 最先端技術は、隠れたノードのアクティベーションが人間にとって意味のある方法で解釈可能であることを示している。
畳み込みニューラルネットワークの高密度層において,背景知識から意味のあるラベルを個々のニューロンに自動的にアタッチできることを示す。
- 参考スコア(独自算出の注目度): 3.6223658572137825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the current key challenges in Explainable AI is in correctly
interpreting activations of hidden neurons. It seems evident that accurate
interpretations thereof would provide insights into the question what a deep
learning system has internally \emph{detected} as relevant on the input, thus
lifting some of the black box character of deep learning systems.
The state of the art on this front indicates that hidden node activations
appear to be interpretable in a way that makes sense to humans, at least in
some cases. Yet, systematic automated methods that would be able to first
hypothesize an interpretation of hidden neuron activations, and then verify it,
are mostly missing.
In this paper, we provide such a method and demonstrate that it provides
meaningful interpretations. It is based on using large-scale background
knowledge -- a class hierarchy of approx. 2 million classes curated from the
Wikipedia Concept Hierarchy -- together with a symbolic reasoning approach
called \emph{concept induction} based on description logics that was originally
developed for applications in the Semantic Web field.
Our results show that we can automatically attach meaningful labels from the
background knowledge to individual neurons in the dense layer of a
Convolutional Neural Network through a hypothesis and verification process.
- Abstract(参考訳): Explainable AIにおける現在の課題の1つは、隠れたニューロンの活性化を正しく解釈することである。
正確な解釈は、深層学習システムが内部的に「emph{detected}」を入力に関連付けているかどうかという疑問に洞察を与え、深層学習システムのブラックボックスのいくつかの特徴を持ち上げることになる。
この技術の現状は、隠されたノードのアクティベーションが、少なくとも場合によっては人間にとって意味のある方法で解釈可能であることを示している。
しかし、まず隠れたニューロンの活性化の解釈を仮定し、それを検証できる体系的な自動化手法はほとんど欠落している。
本稿では,そのような方法を提供し,意味のある解釈を提供することを示す。
これは、wikipediaのコンセプト階層から集められた約200万クラスのクラス階層である大規模なバックグラウンド知識と、元々セマンティックweb分野のアプリケーションのために開発された記述ロジックに基づいた、emph{concept induction}と呼ばれるシンボリック推論アプローチの使用に基づいている。
以上より,畳み込みニューラルネットワークの密集層内の個々のニューロンに,背景知識から有意なラベルを仮説と検証プロセスを通じて自動的に付加できることを示す。
関連論文リスト
- NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [77.56132757244211]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Mapping Knowledge Representations to Concepts: A Review and New
Perspectives [0.6875312133832078]
本論は、内部表現と人間の理解可能な概念を関連付けることを目的とした研究に焦点をあてる。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビューされた文献の曖昧さも明らかにしている。
論文 参考訳(メタデータ) (2022-12-31T12:56:12Z) - An Interpretable Neuron Embedding for Static Knowledge Distillation [7.644253344815002]
本稿では,ニューロンを意味空間に埋め込み,解釈可能な新しいニューラルネットワーク手法を提案する。
提案したセマンティックベクトルは、潜伏した知識を静的な知識に外部化する。
可視化の実証実験により、セマンティックベクターはニューロンの活性化セマンティクスをうまく表現していることが示された。
論文 参考訳(メタデータ) (2022-11-14T03:26:10Z) - Explainability Tools Enabling Deep Learning in Future In-Situ Real-Time
Planetary Explorations [58.720142291102135]
ディープラーニング(DL)は、効果的な機械学習とコンピュータビジョン技術であることが証明されている。
ディープニューラルネットワーク(DNN)アーキテクチャのほとんどは複雑すぎて'ブラックボックス'と見なされている。
本稿では,各ニューロンの出力クラスへの属性を記述するために,積分勾配を用いた。
DNNのブラックボックスを開くための説明可能性ツールセット(ET)を提供するので、分類へのニューロンの個々の貢献をランク付けし視覚化することができる。
論文 参考訳(メタデータ) (2022-01-15T07:10:00Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - Towards Human-Understandable Visual Explanations:Imperceptible
High-frequency Cues Can Better Be Removed [46.36600006968488]
HVS(Human Visual System)と精神物理学に制約された人間の能力を考慮する必要があると我々は主張する。
実顔画像と偽顔画像の分類に関するケーススタディを行い、標準的なニューラルネットワークによって選択された特徴の多くは、人間には認識できないことが判明した。
論文 参考訳(メタデータ) (2021-04-16T08:11:30Z) - A HINT from Arithmetic: On Systematic Generalization of Perception,
Syntax, and Semantics [112.76185821895037]
我々は、知覚、構文、および意味論の3つの異なるレベルで一般化可能な概念を学習する機械の能力を研究します。
本稿では,ニューラルネットワークと文法解析とプログラム合成を統合したニューラルシンボリックシステムを提案する。
実験では、提案されたニューラルシンボリックシステムは強力な一般化能力を示し、RNNやTransformerのようなエンドツーエンドのニューラルメソッドを大幅に上回る。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Semantic Holism and Word Representations in Artificial Neural Networks [0.0]
単語2vecモデルのSkip-gram変種からの単語表現は興味深い意味的特性を示す。
これは通常、一般分布仮説を参照して説明される。
本稿では,フレーゲの包括的,機能的アプローチに基づく,より具体的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-11T21:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。