論文の概要: Higher-Order Convolution Improves Neural Predictivity in the Retina
- arxiv url: http://arxiv.org/abs/2505.07620v1
- Date: Mon, 12 May 2025 14:43:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.438354
- Title: Higher-Order Convolution Improves Neural Predictivity in the Retina
- Title(参考訳): 高次コンボリューションは網膜の神経予測性を改善する
- Authors: Simone Azeglio, Victor Calbiague Garcia, Guilhem Glaziou, Peter Neri, Olivier Marre, Ulisse Ferrari,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)に直接高次操作を組み込むニューラルレスポンス予測への新しいアプローチを提案する。
我々のモデルは、畳み込み演算子自体に高次演算を組み込むことで、従来の3次元CNNを拡張します。
自然界に対するサラマンデル網膜神経節細胞 (RGC) 応答と, 制御された幾何学的変換に対するマウスRGC応答の新しいデータセットの2つの異なるデータセットに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 0.7916635054977068
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a novel approach to neural response prediction that incorporates higher-order operations directly within convolutional neural networks (CNNs). Our model extends traditional 3D CNNs by embedding higher-order operations within the convolutional operator itself, enabling direct modeling of multiplicative interactions between neighboring pixels across space and time. Our model increases the representational power of CNNs without increasing their depth, therefore addressing the architectural disparity between deep artificial networks and the relatively shallow processing hierarchy of biological visual systems. We evaluate our approach on two distinct datasets: salamander retinal ganglion cell (RGC) responses to natural scenes, and a new dataset of mouse RGC responses to controlled geometric transformations. Our higher-order CNN (HoCNN) achieves superior performance while requiring only half the training data compared to standard architectures, demonstrating correlation coefficients up to 0.75 with neural responses (against 0.80$\pm$0.02 retinal reliability). When integrated into state-of-the-art architectures, our approach consistently improves performance across different species and stimulus conditions. Analysis of the learned representations reveals that our network naturally encodes fundamental geometric transformations, particularly scaling parameters that characterize object expansion and contraction. This capability is especially relevant for specific cell types, such as transient OFF-alpha and transient ON cells, which are known to detect looming objects and object motion respectively, and where our model shows marked improvement in response prediction. The correlation coefficients for scaling parameters are more than twice as high in HoCNN (0.72) compared to baseline models (0.32).
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(CNN)に直接高次操作を組み込むニューラルレスポンス予測手法を提案する。
我々のモデルは、畳み込み演算子自体に高次演算を組み込むことで従来の3次元CNNを拡張し、空間と時間にわたって隣接する画素間の乗法的相互作用の直接モデリングを可能にする。
本モデルでは, 深度を増大させることなくCNNの表現力を増大させ, 深層人工ネットワークと生物視覚システムの比較的浅い処理階層とのアーキテクチャ的相違に対処する。
自然界に対するサラマンデル網膜神経節細胞 (RGC) 応答と, 制御された幾何学的変換に対するマウスRGC応答の新しいデータセットの2つの異なるデータセットに対するアプローチを評価した。
我々の高階CNN(HoCNN)は、標準的なアーキテクチャと比較してトレーニングデータの半分しか必要とせず、ニューラルネットワークによる相関係数を最大0.75まで示し、優れたパフォーマンスを実現しています。
最先端のアーキテクチャに統合されると、我々のアプローチは、異なる種や刺激条件におけるパフォーマンスを継続的に改善します。
学習した表現の分析により,我々のネットワークは自然に基本的な幾何学的変換,特に物体の膨張と収縮を特徴付けるスケーリングパラメータを符号化していることが明らかとなった。
この機能は、それぞれ略奪対象と物体の動きを検出することが知られている一過性OF-alphaと一過性ON細胞のような特定の細胞タイプに特に関係しており、我々のモデルでは応答予測の顕著な改善が示されている。
スケーリングパラメータの相関係数は、ベースラインモデル(0.32)に比べてHoCNN(0.72)の2倍以上である。
関連論文リスト
- Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Improving Neural Predictivity in the Visual Cortex with Gated Recurrent
Connections [0.0]
我々は,腹側視覚ストリームのユビキタスな特徴である横方向のリカレント接続を考慮したアーキテクチャに焦点を移し,適応的受容場を創出することを目指している。
本研究は,我々のアプローチの堅牢性と活性化の生物学的忠実性を高めるために,特定のデータ拡張技術を用いている。
論文 参考訳(メタデータ) (2022-03-22T17:27:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。