論文の概要: Explaining Classifiers by Constructing Familiar Concepts
- arxiv url: http://arxiv.org/abs/2203.04109v1
- Date: Mon, 7 Mar 2022 12:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 13:46:14.901245
- Title: Explaining Classifiers by Constructing Familiar Concepts
- Title(参考訳): 慣れ親しんだ概念の構築による分類器の説明
- Authors: Johannes Schneider and Michail Vlachos
- Abstract要約: 本稿では,ニューロンの理解不能な表現を,人間が親しむ領域に近い表現に変換するデコーダを提案する。
ClaDecの拡張により、取引の理解性と忠実性が可能になる。
ClaDecはアーキテクチャに依存するが、分類に関してより関連性の高い入力領域を強調する傾向がある。
- 参考スコア(独自算出の注目度): 2.7514191327409714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpreting a large number of neurons in deep learning is difficult. Our
proposed `CLAssifier-DECoder' architecture (ClaDec) facilitates the
understanding of the output of an arbitrary layer of neurons or subsets
thereof. It uses a decoder that transforms the incomprehensible representation
of the given neurons to a representation that is more similar to the domain a
human is familiar with. In an image recognition problem, one can recognize what
information (or concepts) a layer maintains by contrasting reconstructed images
of ClaDec with those of a conventional auto-encoder(AE) serving as reference.
An extension of ClaDec allows trading comprehensibility and fidelity. We
evaluate our approach for image classification using convolutional neural
networks. We show that reconstructed visualizations using encodings from a
classifier capture more relevant classification information than conventional
AEs. This holds although AEs contain more information on the original input.
Our user study highlights that even non-experts can identify a diverse set of
concepts contained in images that are relevant (or irrelevant) for the
classifier. We also compare against saliency based methods that focus on pixel
relevance rather than concepts. We show that ClaDec tends to highlight more
relevant input areas to classification though outcomes depend on classifier
architecture. Code is at \url{https://github.com/JohnTailor/ClaDec}
- Abstract(参考訳): 深層学習における多数のニューロンの解釈は困難である。
提案する'classifier-decoder'アーキテクチャ(cladec)は、任意のニューロン層またはそのサブセットの出力の理解を容易にする。
これはデコーダを使用し、与えられたニューロンの理解不能な表現を、人間が慣れ親しんだ領域に近い表現に変換する。
画像認識問題において、cladecの再構成された画像と、参照となる従来のオートエンコーダ(ae)の画像とを対比することにより、レイヤが保持する情報(または概念)を認識することができる。
ClaDecの拡張により、取引の理解性と忠実性が可能になる。
畳み込みニューラルネットワークを用いた画像分類手法の評価を行った。
分類器からのエンコーディングを用いて再構成した可視化は,従来のAEよりも関連性の高い分類情報を取得することを示す。
AEには、元の入力に関するより多くの情報が含まれている。
ユーザスタディでは,非専門家でさえ,分類器に関連する(あるいは無関係)イメージに含まれるさまざまな概念を識別できることを強調した。
また,概念よりもピクセルの関連性に着目したサラマンシーベース手法と比較した。
ClaDecは分類器アーキテクチャに依存するが,より関連性の高い入力領域に注目する傾向がある。
コードは \url{https://github.com/johntailor/cladec}
関連論文リスト
- DXAI: Explaining Classification by Image Decomposition [4.013156524547072]
我々は、分解に基づく説明可能なAI(DXAI)を用いてニューラルネットワークの分類を可視化する新しい方法を提案する。
本手法は,説明熱マップを提供する代わりに,画像のクラス非依存部分とクラス固有部分への分解を行う。
論文 参考訳(メタデータ) (2023-12-30T20:52:20Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - AttriCLIP: A Non-Incremental Learner for Incremental Knowledge Learning [53.32576252950481]
連続学習は、モデルが逐次到着したデータから段階的に知識を学習できるようにすることを目的としている。
本稿では,新しいクラスやタスクの知識を段階的に抽出する,AttriCLIPという非インクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T07:39:17Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explaining Neural Networks by Decoding Layer Activations [3.6245632117657816]
ニューラルネットワーク(NN)における任意の層の出力の理解を容易にするCLAssifier-DECoder'アーキテクチャ(emphClaDec)を提案する。
これはデコーダを使用して、与えられたレイヤの非解釈可能な表現を、人間が慣れ親しんだドメインに近い表現に変換する。
画像認識問題において、emphClaDecの再構成画像と参照として機能する従来のオートエンコーダ(AE)の画像を対比することにより、どの情報が層で表現されているかを認識することができる。
論文 参考訳(メタデータ) (2020-05-27T20:22:10Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。