論文の概要: An Information-theoretic Visual Analysis Framework for Convolutional
Neural Networks
- arxiv url: http://arxiv.org/abs/2005.02186v1
- Date: Sat, 2 May 2020 21:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 13:01:57.283359
- Title: An Information-theoretic Visual Analysis Framework for Convolutional
Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのための情報理論ビジュアル分析フレームワーク
- Authors: Jingyi Shen, Han-Wei Shen
- Abstract要約: CNNモデルから抽出可能なデータを整理するデータモデルを提案する。
次に、異なる状況下でエントロピーを計算する2つの方法を提案する。
我々は,モデル内の情報変化量をインタラクティブに探索する視覚解析システムCNNSlicerを開発した。
- 参考スコア(独自算出の注目度): 11.15523311079383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the great success of Convolutional Neural Networks (CNNs) in Computer
Vision and Natural Language Processing, the working mechanism behind CNNs is
still under extensive discussions and research. Driven by a strong demand for
the theoretical explanation of neural networks, some researchers utilize
information theory to provide insight into the black box model. However, to the
best of our knowledge, employing information theory to quantitatively analyze
and qualitatively visualize neural networks has not been extensively studied in
the visualization community. In this paper, we combine information entropies
and visualization techniques to shed light on how CNN works. Specifically, we
first introduce a data model to organize the data that can be extracted from
CNN models. Then we propose two ways to calculate entropy under different
circumstances. To provide a fundamental understanding of the basic building
blocks of CNNs (e.g., convolutional layers, pooling layers, normalization
layers) from an information-theoretic perspective, we develop a visual analysis
system, CNNSlicer. CNNSlicer allows users to interactively explore the amount
of information changes inside the model. With case studies on the widely used
benchmark datasets (MNIST and CIFAR-10), we demonstrate the effectiveness of
our system in opening the blackbox of CNNs.
- Abstract(参考訳): コンピュータビジョンと自然言語処理における畳み込みニューラルネットワーク(CNN)の大成功にもかかわらず、CNNの背後にある作業メカニズムはまだ広く議論と研究が続けられている。
ニューラルネットワークの理論的説明に対する強い要求によって、情報理論を利用してブラックボックスモデルに関する洞察を提供する研究者もいる。
しかし、我々の知る限りでは、ニューラルネットワークを定量的に分析し、定性的に視覚化するための情報理論は、可視化コミュニティでは広く研究されていない。
本稿では,情報エントロピーと可視化技術を組み合わせることで,cnnの動作を解明する。
具体的には,まずcnnモデルから抽出可能なデータを整理するためのデータモデルを提案する。
次に,異なる状況下でのエントロピーを計算する2つの方法を提案する。
情報理論の観点から,CNNの基本構造ブロック(畳み込み層,プール層,正規化層など)の基本的な理解を行うため,視覚解析システムCNNSlicerを開発した。
CNNSlicerを使えば、モデル内の情報変更量をインタラクティブに探索することができる。
広く使われているベンチマークデータセット(MNISTとCIFAR-10)のケーススタディでは、CNNのブラックボックスを開く際のシステムの有効性を実証する。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Application of Tensorized Neural Networks for Cloud Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、天気予報、コンピュータビジョン、自律運転、医療画像解析など、さまざまな分野で広く利用されている。
しかし、これらの領域におけるCNNの実装と商業化は、モデルのサイズ、過度な適合、計算時間に関連する課題によって妨げられている。
モデルサイズと計算時間を削減するため,CNN内の高密度層をテンソル化することによる画期的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-21T06:28:22Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Assessing learned features of Deep Learning applied to EEG [0.0]
生の脳波データに基づいて訓練されたCNNから脳波関連特徴を抽出するために3つの異なる手法を用いる。
我々は,CNNモデルの可視化により,興味深い脳波結果が得られることを示した。
論文 参考訳(メタデータ) (2021-11-08T07:43:40Z) - Convolutional Neural Networks Demystified: A Matched Filtering
Perspective Based Tutorial [7.826806223782053]
畳み込みニューラルネットワーク(CNN)は、大量の信号や画像を分析するためのデファクト標準である。
我々は、最初の原則と一致するフィルタリングの観点から、それらの操作を再考する。
このチュートリアルが、深層ニューラルネットワークの理解とさらなる発展に新たな光と物理的直感をもたらすことを願っています。
論文 参考訳(メタデータ) (2021-08-26T09:07:49Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Decoding CNN based Object Classifier Using Visualization [6.666597301197889]
CNNのさまざまな畳み込み層で抽出される特徴の種類を視覚化する。
アクティベーションのヒートマップを可視化することは、CNNが画像内の異なるオブジェクトを分類し、ローカライズする方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2020-07-15T05:01:27Z) - CNN Explainer: Learning Convolutional Neural Networks with Interactive
Visualization [23.369550871258543]
CNN Explainerは、非専門家が畳み込みニューラルネットワーク(CNN)を学習し、検証するために設計されたインタラクティブな可視化ツールである。
我々のツールは、CNNについて学びながら初心者が直面する重要な課題に対処し、インストラクターへのインタビューや過去の学生に対する調査から識別する。
CNN Explainerは、ユーザがCNNの内部動作をより理解しやすくし、興味深く、使いやすくする。
論文 参考訳(メタデータ) (2020-04-30T17:49:44Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。