論文の概要: On-Off Center-Surround Receptive Fields for Accurate and Robust Image
Classification
- arxiv url: http://arxiv.org/abs/2106.07091v1
- Date: Sun, 13 Jun 2021 20:55:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-16 07:22:14.206818
- Title: On-Off Center-Surround Receptive Fields for Accurate and Robust Image
Classification
- Title(参考訳): 高精度・ロバスト画像分類のためのオンオフセンター・サーラウンド受容場
- Authors: Zahra Babaiee, Ramin Hasani, Mathias Lechner, Daniela Rus, Radu Grosu
- Abstract要約: 我々は、OOCS経路が光刺激に対する応答において互いに補完し、強いエッジ検出能力を確実にすることを示す。
我々は,OOCSエッジ表現によって供給されるネットワークが,標準的な深層モデルと比較して精度と照度が向上することを示す実証的証拠を提供する。
- 参考スコア(独自算出の注目度): 54.73738206624343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness to variations in lighting conditions is a key objective for any
deep vision system. To this end, our paper extends the receptive field of
convolutional neural networks with two residual components, ubiquitous in the
visual processing system of vertebrates: On-center and off-center pathways,
with excitatory center and inhibitory surround; OOCS for short. The on-center
pathway is excited by the presence of a light stimulus in its center but not in
its surround, whereas the off-center one is excited by the absence of a light
stimulus in its center but not in its surround. We design OOCS pathways via a
difference of Gaussians, with their variance computed analytically from the
size of the receptive fields. OOCS pathways complement each other in their
response to light stimuli, ensuring this way a strong edge-detection
capability, and as a result, an accurate and robust inference under challenging
lighting conditions. We provide extensive empirical evidence showing that
networks supplied with the OOCS edge representation gain accuracy and
illumination-robustness compared to standard deep models.
- Abstract(参考訳): 照明条件の変化に対するロバスト性は、あらゆる深部視覚システムにとって重要な目標である。
そこで本研究では, 脊椎動物の視覚処理系において, 興奮中心, 抑制周囲の経路, 短くてOOCSの2つの残留成分で, 畳み込みニューラルネットワークの受容領域を拡張した。
中心の経路は、中心に光刺激があるが周囲にはないのに対し、外側の経路は中心に光刺激がないために興奮するが、周囲には光刺激がない。
我々は, ガウスの差異を通したoocs経路の設計を行い, その分散を受容野の大きさから解析的に計算した。
OOCS経路は光刺激に対する応答において互いに補完し、この方法で強力なエッジ検出能力を確保し、結果として、挑戦的な照明条件下で正確で堅牢な推論を行う。
OOCSエッジ表現によって供給されるネットワークが、標準的な深層モデルと比較して精度と照度が向上することを示す広範な実証的証拠を提供する。
関連論文リスト
- Center Focusing Network for Real-Time LiDAR Panoptic Segmentation [58.1194137706868]
高精度かつリアルタイムなLiDARパノプティブセグメンテーションを実現するために、CFNet(Central Focus Network)を導入した。
CFFEは、元のLiDARポイントと仮想インスタンスセンターの関係を明確に理解するために提案されている。
我々のCFNetは、すべての既存のメソッドを大きなマージンで上回り、最も効率的なメソッドよりも1.6倍高速です。
論文 参考訳(メタデータ) (2023-11-16T01:52:11Z) - Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Learning Kernel-Modulated Neural Representation for Efficient Light
Field Compression [41.24757573290883]
光場圧縮タスクのためのコンパクトニューラルネットワーク表現を設計する。
トレーニング中に学んだシーン記述情報を格納する記述カーネル(ディスクリプタ)と、クエリされた視点から異なるSAIのレンダリングを制御する変調カーネル(モジュレータ)の2種類で構成されている。
論文 参考訳(メタデータ) (2023-07-12T12:58:03Z) - Learnable Differencing Center for Nighttime Depth Perception [39.455428679154934]
我々は LDCNet というシンプルなフレームワークを提案する。
我々のキーとなる考え方は、夜間のカラー画像を改善するために、Recurrent Inter-Convolution Difference (RICD) と Illumination-Affinitive Inter-Convolution Difference (IAICD) を使用することである。
夜間深度推定タスクと夜間深度推定タスクの両方において,LDCNetの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2023-06-26T09:21:13Z) - When Spectral Modeling Meets Convolutional Networks: A Method for
Discovering Reionization-era Lensed Quasars in Multi-band Imaging Data [0.0]
画像に基づく深層学習により実装された新しい空間幾何学的ベト基準を導入する。
我々は、この手法の最初の応用を、イオン化時代のレンズ付きクエーサーの体系的な探索に適用する。
トレーニングデータセットは、実際の銀河画像の上に偏向した点光源の光を塗って、現実的な銀河クエーサーレンズモデルを生成することで構築される。
論文 参考訳(メタデータ) (2022-11-26T11:27:13Z) - Effect of Localization on Photoluminescence and Zero-Field Splitting of
Silicon Color Centers [3.324869575908454]
多くのシリコン欠陥中心は、電気通信の$O$バンドで単一の光子を放出する。
2炭素G中心、自己中間体W中心、スピン-1/2$T中心は、最も集中的に研究されているシリコン欠陥中心である。
これらの性質が欠陥中心における電子状態の局在とどのように密接に関連しているかに関するモチベーションが提供される。
論文 参考訳(メタデータ) (2022-06-10T01:02:08Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z) - A Parallel Down-Up Fusion Network for Salient Object Detection in
Optical Remote Sensing Images [82.87122287748791]
光リモートセンシング画像(RSI)における有意な物体検出のための新しい並列ダウンアップフュージョンネットワーク(PDF-Net)を提案する。
In-pathの低レベル・高レベルな特徴とクロスパスの多解像度な特徴をフル活用して、多様なスケールのサルエントオブジェクトを識別し、散らかった背景を抑える。
ORSSDデータセットの実験により、提案したネットワークは定性的かつ定量的に最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T05:27:57Z) - View-consistent 4D Light Field Depth Estimation [37.04038603184669]
本研究では,光場内の各サブアパーチャ画像の深度マップを一貫したビューで計算する手法を提案する。
提案手法は,EPIを用いて深度エッジを正確に定義し,その辺を中央の視野内で空間的に拡散させる。
論文 参考訳(メタデータ) (2020-09-09T01:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。