論文の概要: How Convolutional Neural Network Architecture Biases Learned Opponency
and Colour Tuning
- arxiv url: http://arxiv.org/abs/2010.02634v1
- Date: Tue, 6 Oct 2020 11:33:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 04:52:53.902736
- Title: How Convolutional Neural Network Architecture Biases Learned Opponency
and Colour Tuning
- Title(参考訳): 畳み込みニューラルネットワークアーキテクチャはいかにして対数と色調整を学んだか
- Authors: Ethan Harris, Daniela Mihai, Jonathon Hare
- Abstract要約: 最近の研究は、第2層にボトルネックを導入して畳み込みニューラルネットワーク(CNN)アーキテクチャを変更することで、学習機能の変化をもたらすことを示唆している。
この関係を完全に理解するには、訓練されたネットワークを定量的に比較する方法が必要である。
畳み込みニューロンに対する空間的および色調曲線を得るためのアプローチを提案する。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work suggests that changing Convolutional Neural Network (CNN)
architecture by introducing a bottleneck in the second layer can yield changes
in learned function. To understand this relationship fully requires a way of
quantitatively comparing trained networks. The fields of electrophysiology and
psychophysics have developed a wealth of methods for characterising visual
systems which permit such comparisons. Inspired by these methods, we propose an
approach to obtaining spatial and colour tuning curves for convolutional
neurons, which can be used to classify cells in terms of their spatial and
colour opponency. We perform these classifications for a range of CNNs with
different depths and bottleneck widths. Our key finding is that networks with a
bottleneck show a strong functional organisation: almost all cells in the
bottleneck layer become both spatially and colour opponent, cells in the layer
following the bottleneck become non-opponent. The colour tuning data can
further be used to form a rich understanding of how colour is encoded by a
network. As a concrete demonstration, we show that shallower networks without a
bottleneck learn a complex non-linear colour system, whereas deeper networks
with tight bottlenecks learn a simple channel opponent code in the bottleneck
layer. We further develop a method of obtaining a hue sensitivity curve for a
trained CNN which enables high level insights that complement the low level
findings from the colour tuning data. We go on to train a series of networks
under different conditions to ascertain the robustness of the discussed
results. Ultimately, our methods and findings coalesce with prior art,
strengthening our ability to interpret trained CNNs and furthering our
understanding of the connection between architecture and learned
representation. Code for all experiments is available at
https://github.com/ecs-vlc/opponency.
- Abstract(参考訳): 最近の研究は、第2層にボトルネックを導入して畳み込みニューラルネットワーク(CNN)アーキテクチャを変更することで、学習機能の変化をもたらすことを示唆している。
この関係を完全に理解するには、訓練されたネットワークを定量的に比較する方法が必要である。
電気生理学と心理物理学の分野は、このような比較を可能にする視覚システムを特徴づける多くの方法を開発した。
これらの手法に着想を得て,共進化ニューロンの空間的および色調曲線を求める手法を提案する。
異なる深さとボトルネック幅のCNNに対して,これらの分類を行う。
ボトルネック層のほとんどすべての細胞は空間的にも色的にも敵対的になり、ボトルネックに続く層内の細胞は非対極的になります。
色調データはさらに、ネットワークによってどのように色がエンコードされるかの理解を深めるために使用できる。
具体的な実演として、ボトルネックのない浅層ネットワークは複雑な非線形カラーシステムを学ぶのに対し、密なボトルネックを持つより深いネットワークはボトルネック層内で単純なチャネル対向コードを学ぶ。
さらに,色調データから低レベルな知見を補完する高レベル洞察を可能にする,訓練されたcnnのhue感度曲線を得る方法を開発した。
我々は,議論結果の堅牢性を確認するために,異なる条件下で一連のネットワークを訓練する。
最終的に、我々の手法と発見は先行技術と合わさり、訓練されたCNNを解釈する能力を強化し、アーキテクチャと学習された表現との関係について理解を深める。
すべての実験のコードはhttps://github.com/ecs-vlc/opponencyで入手できる。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - Learning to Structure an Image with Few Colors and Beyond [59.34619548026885]
カラー量子化ネットワークであるColorCNNを提案し、分類損失を最小限に抑えて、限られた色空間で画像を構成することを学習する。
複数の色空間サイズ構成をサポートするColorCNN+を導入し、大色空間における認識精度の低下と望ましくない視覚的忠実度に関する過去の問題に対処する。
潜在的な応用として、ネットワーク認識のための画像圧縮手法としてColorCNNが利用可能であることを示す。
論文 参考訳(メタデータ) (2022-08-17T17:59:15Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - RGB-D SLAM Using Attention Guided Frame Association [11.484398586420067]
RGB-D屋内SLAMにおけるタスク特化ネットワークアテンションの利用を提案する。
我々は,CNN層表現とレイヤワイドオブジェクトアテンション情報(層勾配)を統合し,フレームアソシエーション性能を向上させる。
実験では、パフォーマンスを改善した有望な初期結果が示されている。
論文 参考訳(メタデータ) (2022-01-28T11:23:29Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。