論文の概要: Convolutional Neural Networks Demystified: A Matched Filtering
Perspective Based Tutorial
- arxiv url: http://arxiv.org/abs/2108.11663v1
- Date: Thu, 26 Aug 2021 09:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 22:01:05.504263
- Title: Convolutional Neural Networks Demystified: A Matched Filtering
Perspective Based Tutorial
- Title(参考訳): convolutional neural networks demystified: a matched filtering perspective based tutorial
- Authors: Ljubisa Stankovic and Danilo Mandic
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、大量の信号や画像を分析するためのデファクト標準である。
我々は、最初の原則と一致するフィルタリングの観点から、それらの操作を再考する。
このチュートリアルが、深層ニューラルネットワークの理解とさらなる発展に新たな光と物理的直感をもたらすことを願っています。
- 参考スコア(独自算出の注目度): 7.826806223782053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNN) and especially Convolutional Neural Networks (CNN)
are a de-facto standard for the analysis of large volumes of signals and
images. Yet, their development and underlying principles have been largely
performed in an ad-hoc and black box fashion. To help demystify CNNs, we
revisit their operation from first principles and a matched filtering
perspective. We establish that the convolution operation within CNNs, their
very backbone, represents a matched filter which examines the input
signal/image for the presence of pre-defined features. This perspective is
shown to be physically meaningful, and serves as a basis for a step-by-step
tutorial on the operation of CNNs, including pooling, zero padding, various
ways of dimensionality reduction. Starting from first principles, both the
feed-forward pass and the learning stage (via back-propagation) are illuminated
in detail, both through a worked-out numerical example and the corresponding
visualizations. It is our hope that this tutorial will help shed new light and
physical intuition into the understanding and further development of deep
neural networks.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)および特に畳み込みニューラルネットワーク(cnn)は、大量の信号や画像を分析するためのデファクトスタンダードである。
しかし、彼らの開発と基礎となる原則は、主にアドホックでブラックボックス方式で実行されてきた。
CNNのデミスティフィケーションを支援するため、最初の原則と一致するフィルタリングの観点から、それらの操作を再考する。
我々は,そのバックボーンであるCNN内の畳み込み動作が,予め定義された特徴の存在に対して入力信号/イメージを検査するマッチングフィルタであることを確認した。
この視点は物理的に意味があることが示されており、プール、ゼロパディング、次元減少の様々な方法を含むCNNの操作に関するステップバイステップのチュートリアルの基礎となっている。
最初の原則から始めると、フィードフォワードパスと学習段階(バックプロパゲーション)の両方が、ワークアウトした数値例とそれに対応する可視化を通して詳細に照らされる。
このチュートリアルが深層ニューラルネットワークの理解とさらなる発展に新たな光と物理的直感をもたらすことを願っています。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Demystifying CNNs for Images by Matched Filters [13.121514086503591]
畳み込みニューラルネットワーク(CNN)は、ビッグデータ時代のインテリジェントマシンのアプローチと使用方法に革命をもたらしています。
CNNは、そのテキストブラックボックスの性質と、その操作の理論的サポートと物理的意味の欠如により、精査されている。
本稿では,マッチングフィルタリングの観点を用いて,CNNの動作を復調する手法を提案する。
論文 参考訳(メタデータ) (2022-10-16T12:39:17Z) - Visual Explanations for Convolutional Neural Networks via Latent
Traversal of Generative Adversarial Networks [17.475341881835355]
本稿では、GAN(Generative Adversarial Networks)を利用して、畳み込みニューラルネットワーク(CNN)が学んだことを解釈する手法を提案する。
我々のGANフレームワークは、新型コロナウイルスの特徴から肺の構造を切り離す。このGANを用いて、GANの潜伏した空間で補間することにより、胸部X線写真中の一対の陰性肺からCOVID陽性肺への移行を可視化することができる。
論文 参考訳(メタデータ) (2021-10-29T23:26:09Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Shape or Texture: Understanding Discriminative Features in CNNs [28.513300496205044]
最近の研究では、CNNが実際にテクスチャバイアスを持っていることが示されている」。
ネットワークは,最初の数回の訓練で,全体の形状情報の大部分を学習することを示す。
また、形状の符号化は、局所化された画素ごとのセマンティック情報の符号化を意味するものではないことを示す。
論文 参考訳(メタデータ) (2021-01-27T18:54:00Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - An Information-theoretic Visual Analysis Framework for Convolutional
Neural Networks [11.15523311079383]
CNNモデルから抽出可能なデータを整理するデータモデルを提案する。
次に、異なる状況下でエントロピーを計算する2つの方法を提案する。
我々は,モデル内の情報変化量をインタラクティブに探索する視覚解析システムCNNSlicerを開発した。
論文 参考訳(メタデータ) (2020-05-02T21:36:50Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。