論文の概要: Explaining Neural Networks by Decoding Layer Activations
- arxiv url: http://arxiv.org/abs/2005.13630v3
- Date: Fri, 26 Feb 2021 17:11:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:20:39.318054
- Title: Explaining Neural Networks by Decoding Layer Activations
- Title(参考訳): レイヤアクティベーションの復号化によるニューラルネットワークの説明
- Authors: Johannes Schneider and Michalis Vlachos
- Abstract要約: ニューラルネットワーク(NN)における任意の層の出力の理解を容易にするCLAssifier-DECoder'アーキテクチャ(emphClaDec)を提案する。
これはデコーダを使用して、与えられたレイヤの非解釈可能な表現を、人間が慣れ親しんだドメインに近い表現に変換する。
画像認識問題において、emphClaDecの再構成画像と参照として機能する従来のオートエンコーダ(AE)の画像を対比することにより、どの情報が層で表現されているかを認識することができる。
- 参考スコア(独自算出の注目度): 3.6245632117657816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a `CLAssifier-DECoder' architecture (\emph{ClaDec}) which
facilitates the comprehension of the output of an arbitrary layer in a neural
network (NN). It uses a decoder to transform the non-interpretable
representation of the given layer to a representation that is more similar to
the domain a human is familiar with. In an image recognition problem, one can
recognize what information is represented by a layer by contrasting
reconstructed images of \emph{ClaDec} with those of a conventional
auto-encoder(AE) serving as reference. We also extend \emph{ClaDec} to allow
the trade-off between human interpretability and fidelity. We evaluate our
approach for image classification using Convolutional NNs. We show that
reconstructed visualizations using encodings from a classifier capture more
relevant information for classification than conventional AEs. Relevant code is
available at \url{https://github.com/JohnTailor/ClaDec}
- Abstract(参考訳): ニューラルネットワーク(NN)における任意の層の出力の理解を容易にする「CLAssifier-DECoder」アーキテクチャ(\emph{ClaDec})を提案する。
これはデコーダを使用して、与えられたレイヤの非解釈可能な表現を、人間が慣れ親しんだドメインに近い表現に変換する。
画像認識問題において、emph{cladec}の再構成された画像と、参照となる従来のオートエンコーダ(ae)の画像とを対比することにより、どの情報がレイヤーで表現されているかを認識することができる。
また、人間の解釈可能性と忠実性の間のトレードオフを可能にするために、 \emph{cladec}を拡張します。
畳み込みNNを用いた画像分類手法の評価を行った。
分類器からのエンコーディングを用いて再構成した可視化は,従来のAEよりも,より関連性の高い情報を取得することを示す。
関連するコードは \url{https://github.com/johntailor/cladec} で入手できる。
関連論文リスト
- Spatial Action Unit Cues for Interpretable Deep Facial Expression Recognition [55.97779732051921]
表情認識(FER)のための最先端の分類器は、エンドユーザーにとって重要な特徴である解釈可能性に欠ける。
新しい学習戦略が提案され、AU cues を分類器訓練に明示的に組み込むことで、深い解釈可能なモデルを訓練することができる。
我々の新しい戦略は汎用的であり、アーキテクチャの変更や追加のトレーニング時間を必要とすることなく、ディープCNNやトランスフォーマーベースの分類器に適用できます。
論文 参考訳(メタデータ) (2024-10-01T10:42:55Z) - Guided Interpretable Facial Expression Recognition via Spatial Action Unit Cues [55.97779732051921]
オーキューを分類器学習に明示的に組み込むための新しい学習戦略が提案されている。
分類性能を劣化させることなく階層的解釈性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-01T02:13:49Z) - An Image captioning algorithm based on the Hybrid Deep Learning
Technique (CNN+GRU) [0.0]
本稿では,CNN-GRUエンコーダデコーダのキャプション・ツー・イメージ・コンストラクタ用デコーダフレームワークを提案する。
意味的なコンテキストと時間の複雑さを考慮に入れます。
提案モデルでは,画像キャプションのための最先端のLSTM-A5モデルよりも,時間的複雑性と精度が優れている。
論文 参考訳(メタデータ) (2023-01-06T10:00:06Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Towards Semantic Communications: Deep Learning-Based Image Semantic
Coding [42.453963827153856]
我々は,よりセマンティクスや帯域幅に敏感な画像データに対するセマンティクス通信を考案した。
画素レベルを超えて画像を符号化する強化学習に基づく適応意味符号化(RL-ASC)手法を提案する。
実験の結果,提案したRL-ASCはノイズ耐性があり,視覚的に快適でセマンティックな一貫した画像の再構成が可能であった。
論文 参考訳(メタデータ) (2022-08-08T12:29:55Z) - Explaining Classifiers by Constructing Familiar Concepts [2.7514191327409714]
本稿では,ニューロンの理解不能な表現を,人間が親しむ領域に近い表現に変換するデコーダを提案する。
ClaDecの拡張により、取引の理解性と忠実性が可能になる。
ClaDecはアーキテクチャに依存するが、分類に関してより関連性の高い入力領域を強調する傾向がある。
論文 参考訳(メタデータ) (2022-03-07T12:21:06Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - Image Captioning using Deep Stacked LSTMs, Contextual Word Embeddings
and Data Augmentation [1.2183405753834562]
Inception-ResNet Convolutional Neural Network をエンコーダとして,画像から特徴を抽出する。
また、単語表現には階層型コンテキストベースのWord Embeddings、デコーダにはDeep Stacked Long Term Memory Networkを使用します。
提案手法をデコーダとソフトアテンションの2つの画像キャプションフレームワークを用いて評価する。
論文 参考訳(メタデータ) (2021-02-22T18:15:39Z) - Convolutional Neural Networks from Image Markers [62.997667081978825]
特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
論文 参考訳(メタデータ) (2020-12-15T22:58:23Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。