論文の概要: Foveated Retinotopy Improves Classification and Localization in CNNs
- arxiv url: http://arxiv.org/abs/2402.15480v3
- Date: Sun, 29 Dec 2024 20:13:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:00:18.762911
- Title: Foveated Retinotopy Improves Classification and Localization in CNNs
- Title(参考訳): CNNの分類と局在を改善したFoveated Retinotopy
- Authors: Jean-Nicolas Jérémie, Emmanuel Daucé, Laurent U Perrinet,
- Abstract要約: 画像分類タスクにおいて,葉柄付き網膜移植が深層畳み込みニューラルネットワーク(CNN)にどのような効果をもたらすかを示す。
以上の結果から,葉状網膜地図は視覚的物体形状に関する暗黙の知識をコードしていることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: From a falcon detecting prey to humans recognizing faces, many species exhibit extraordinary abilities in rapid visual localization and classification. These are made possible by a specialized retinal region called the fovea, which provides high acuity at the center of vision while maintaining lower resolution in the periphery. This distinctive spatial organization, preserved along the early visual pathway through retinotopic mapping, is fundamental to biological vision, yet remains largely unexplored in machine learning. Our study investigates how incorporating foveated retinotopy may benefit deep convolutional neural networks (CNNs) in image classification tasks. By implementing a foveated retinotopic transformation in the input layer of standard ResNet models and re-training them, we maintain comparable classification accuracy while enhancing the network's robustness to scale and rotational perturbations. Although this architectural modification introduces increased sensitivity to fixation point shifts, we demonstrate how this apparent limitation becomes advantageous: variations in classification probabilities across different gaze positions serve as effective indicators for object localization. Our findings suggest that foveated retinotopic mapping encodes implicit knowledge about visual object geometry, offering an efficient solution to the visual search problem - a capability crucial for many living species.
- Abstract(参考訳): 獲物を検知するファルコンから顔を認識する人間まで、多くの種は視覚的局所化と分類において異常な能力を発揮している。
これらはフォベアと呼ばれる特殊な網膜領域によって可能であり、周囲の解像度を低く保ちながら視の中心で高い明度を提供する。
レチノトピックマッピングによる初期の視覚経路に沿って保存されているこの独特の空間的組織は、生物学的ビジョンの基礎であるが、機械学習ではほとんど解明されていない。
本研究は, 画像分類タスクにおいて, 葉状網膜移植が深層畳み込みニューラルネットワーク(CNN)にどのような効果をもたらすかを検討する。
標準ResNetモデルの入力層にフェーベレートされたレチノトピック変換を実装し、それらを再学習することにより、ネットワークのスケールと回転の摂動に対する堅牢性を高めながら、同等の分類精度を維持する。
このアーキテクチャ変更は、固定点シフトに対する感度の向上をもたらすが、この明らかな制限がいかに有利になるかを実証する: 異なる視線位置における分類確率の変化は、オブジェクトの局所化の効果的な指標となる。
以上の結果から,葉柄付き網膜マッピングは視覚オブジェクトの形状に関する暗黙の知識を符号化し,視覚探索問題に対する効率的な解法である,多くの生物種にとって重要な能力をもたらすことが示唆された。
関連論文リスト
- Progressive Retinal Image Registration via Global and Local Deformable Transformations [49.032894312826244]
我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-09-02T08:43:50Z) - Region Guided Attention Network for Retinal Vessel Segmentation [19.587662416331682]
本稿では,領域誘導型アテンションを用いたエンコーダデコーダ機構に基づく軽量網膜血管セグメンテーションネットワークを提案する。
Dice Losは偽陽性と偽陰性を等しく解析し、モデルがより正確なセグメンテーションを生成するように促す。
ベンチマークデータセットの実験では、最先端の手法と比較して、パフォーマンス(0.8285, 0.8098, 0.9677, 0.8166リコール、精度、精度、F1スコア)が向上した。
論文 参考訳(メタデータ) (2024-07-22T00:08:18Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Unleashing the Power of Depth and Pose Estimation Neural Networks by
Designing Compatible Endoscopic Images [12.412060445862842]
内視鏡画像の特性を詳細に解析し、画像とニューラルネットワークの互換性を改善する。
まず,完全な画像情報の代わりに部分的な画像情報を入力するMask Image Modelling (MIM) モジュールを導入する。
第2に、画像とニューラルネットワークの互換性を明確に向上させるために、内視鏡画像を強化する軽量ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T02:19:38Z) - Deep Angiogram: Trivializing Retinal Vessel Segmentation [1.8479315677380455]
本研究では,無関係な特徴をフィルタリングし,深部血管造影という潜像を合成するコントラスト型変分自動エンコーダを提案する。
合成ネットワークの一般化性は、画像コントラストとノイズの特徴の変動に敏感なモデルを実現するコントラスト損失によって改善される。
論文 参考訳(メタデータ) (2023-07-01T06:13:10Z) - Saccade Mechanisms for Image Classification, Object Detection and
Tracking [12.751552698602744]
生体視覚からのササード機構を用いて、ディープニューラルネットワークを分類や物体検出の問題をより効率的にする方法について検討する。
提案手法は、注意駆動型視覚処理とササードのアイデアに基づいており、注意に影響された眼球運動のミニチュア化を図っている。
論文 参考訳(メタデータ) (2022-06-10T13:50:34Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。