論文の概要: Explicitly Modeling Pre-Cortical Vision with a Neuro-Inspired Front-End Improves CNN Robustness
- arxiv url: http://arxiv.org/abs/2409.16838v1
- Date: Wed, 25 Sep 2024 11:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 04:05:48.641726
- Title: Explicitly Modeling Pre-Cortical Vision with a Neuro-Inspired Front-End Improves CNN Robustness
- Title(参考訳): ニューロインスパイアされたフロントエンドを用いた前皮質視覚の明示的モデリングによるCNNロバストネスの改善
- Authors: Lucas Piper, Arlindo L. Oliveira, Tiago Marques,
- Abstract要約: CNNは、一般的な汚職で腐敗した画像の分類に苦慮している。
近年の研究では、霊長類一次視覚野(V1)のいくつかの特徴をシミュレートするCNNフロントエンドブロックを組み込むことで、全体のモデル堅牢性を向上させることが示されている。
我々は、前皮質視覚処理をシミュレートする新しいフロントエンドブロックを組み込んだ、生物学的にインスパイアされたCNNモデルファミリーを2つ導入する。
- 参考スコア(独自算出の注目度): 1.8434042562191815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While convolutional neural networks (CNNs) excel at clean image classification, they struggle to classify images corrupted with different common corruptions, limiting their real-world applicability. Recent work has shown that incorporating a CNN front-end block that simulates some features of the primate primary visual cortex (V1) can improve overall model robustness. Here, we expand on this approach by introducing two novel biologically-inspired CNN model families that incorporate a new front-end block designed to simulate pre-cortical visual processing. RetinaNet, a hybrid architecture containing the novel front-end followed by a standard CNN back-end, shows a relative robustness improvement of 12.3% when compared to the standard model; and EVNet, which further adds a V1 block after the pre-cortical front-end, shows a relative gain of 18.5%. The improvement in robustness was observed for all the different corruption categories, though accompanied by a small decrease in clean image accuracy, and generalized to a different back-end architecture. These findings show that simulating multiple stages of early visual processing in CNN early layers provides cumulative benefits for model robustness.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)はクリーンな画像分類に優れていますが、さまざまな共通の汚職による画像の分類に苦慮し、実際の適用範囲を制限しています。
近年の研究では、霊長類一次視覚野(V1)のいくつかの特徴をシミュレートするCNNフロントエンドブロックを組み込むことで、全体のモデル堅牢性を向上させることが示されている。
ここでは、前皮質視覚処理をシミュレートする新しいフロントエンドブロックを組み込んだ、生物学的にインスパイアされた2つのCNNモデルファミリーを導入することにより、このアプローチを拡大する。
新しいフロントエンドと標準のCNNバックエンドを含むハイブリッドアーキテクチャであるRetinaNetは、標準モデルと比較して12.3%のロバスト性向上を示す。
この堅牢性の向上は, クリーンな画像精度の低下を伴い, 異なるバックエンドアーキテクチャに一般化された。
これらの結果から,CNN初期層における初期視覚処理の複数の段階をシミュレートすることで,モデルロバストネスの累積的メリットが得られた。
関連論文リスト
- Combined CNN and ViT features off-the-shelf: Another astounding baseline for recognition [49.14350399025926]
本稿では,ImageNet Large Scale Visual Recognition Challengeのために開発された事前学習型アーキテクチャを,近視認識に適用する。
CNNとViTの中間層の特徴は、近視画像に基づいて個人を認識するのに適した方法である。
論文 参考訳(メタデータ) (2024-07-28T11:52:36Z) - Matching the Neuronal Representations of V1 is Necessary to Improve
Robustness in CNNs with V1-like Front-ends [1.8434042562191815]
近年,畳み込みニューラルネットワークの前方における初期視覚領域の計算シミュレーションにより,画像劣化に対するロバスト性の向上が示されている。
ここでは、霊長類V1に見られるRF特性の分布を正確に一致させることから生じる神経表現が、この堅牢性向上の鍵となることを示す。
論文 参考訳(メタデータ) (2023-10-16T16:52:15Z) - Patching Weak Convolutional Neural Network Models through Modularization
and Composition [19.986199290508925]
分類タスクのための畳み込みニューロンネットワーク(CNN)モデルは、しばしば不満足に機能する。
圧縮モジュラー化手法であるCNNSplitterを提案し、$N$クラス分類のための強力なCNNモデルを$N$より小さなCNNモジュールに分解する。
CNNSplitterは、モジュール化と構成により弱いCNNモデルにパッチを適用できることを示し、ロバストなCNNモデルを開発するための新しいソリューションを提供する。
論文 参考訳(メタデータ) (2022-09-11T15:26:16Z) - Variational Deep Image Restoration [20.195082841065947]
本稿では,画像復元のための新しい変分推論フレームワークと,提案フレームワークで記述した復元問題を解決する畳み込みニューラルネットワーク(CNN)構造を提案する。
具体的には,ガウス雑音の除去,実環境雑音の低減,ブラインド画像の超解像,JPEG圧縮アーティファクトの低減について,最先端の性能を提供する。
論文 参考訳(メタデータ) (2022-07-03T16:32:15Z) - A precortical module for robust CNNs to light variations [0.0]
哺乳類の低視線経路の簡単な数学的モデルを示し、その重要な要素である網膜、外側原性核(LGN)、一次視覚野(V1)を考慮に入れた。
視覚系の皮質レベルと、画像分類タスクで使用される一般的なCNNの構造との類似性は、入力画像における大域的な光強度とコントラスト変動に関するロバスト性を改善するために、前皮質神経回路にインスパイアされた追加の予備的畳み込みモジュールの導入を示唆している。
我々は、MNIST、FashionMNIST、SVHNといった人気データベース上で仮説を検証し、これらの変動に関してより堅牢なCNNを得る。
論文 参考訳(メタデータ) (2022-02-15T14:18:40Z) - Corrupted Image Modeling for Self-Supervised Visual Pre-Training [103.99311611776697]
自己教師型視覚前訓練のためのCIM(Corrupted Image Modeling)を提案する。
CIMは、小さなトレーニング可能なBEiTを備えた補助発電機を使用して、人工マスクトークンを使用する代わりに入力イメージを破損させる。
事前トレーニング後、エンハンサーは下流タスク用の高容量ビジュアルエンコーダとして使用できる。
論文 参考訳(メタデータ) (2022-02-07T17:59:04Z) - Combining Different V1 Brain Model Variants to Improve Robustness to
Image Corruptions in CNNs [5.875680381119361]
畳み込みニューラルネットワーク(CNN)の前面で一次視覚野(V1)をシミュレートすると、画像摂動に対するロバスト性はわずかに改善される。
我々は、複数の個人モデルと異なるV1フロントエンドモデルを組み合わせたアンサンブル手法を用いて、新しいモデルを構築する。
蒸留により, アンサンブルモデルの知識を, V1フロントエンドを持つ単一モデルに部分的に圧縮することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T16:35:09Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Extreme Value Preserving Networks [65.2037926048262]
最近の証拠は、畳み込みニューラルネットワーク(CNN)がテクスチャに偏りがあることを示しており、CNNはテクスチャに逆らう摂動に対して損なわれない。
本稿では,SIFTの優れた特性を活用してCNNアーキテクチャを改良し,精度と堅牢性を向上させることを目的とする。
論文 参考訳(メタデータ) (2020-11-17T02:06:52Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。