論文の概要: Deep Continuous Networks
- arxiv url: http://arxiv.org/abs/2402.01557v1
- Date: Fri, 2 Feb 2024 16:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 14:14:47.470409
- Title: Deep Continuous Networks
- Title(参考訳): ディープ連続ネットワーク
- Authors: Nergis Tomen, Silvia L. Pintea, Jan C. van Gemert
- Abstract要約: 空間的連続フィルタとニューラルODEの連続深度フレームワークを組み合わせたディープ連続ネットワーク(DCN)を提案する。
これにより、トレーニング中のフィルタの空間的サポートを学習し、特徴写像の連続的な進化をモデル化し、DCNを生物学的モデルに密接にリンクすることができる。
パラメータとデータ効率を改善し,メタパラメトリゼーションを可能にする標準画像分類・再構成問題に対して,DCNは汎用性が高く,高い適用性を示す。
- 参考スコア(独自算出の注目度): 21.849285945717632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CNNs and computational models of biological vision share some fundamental
principles, which opened new avenues of research. However, fruitful cross-field
research is hampered by conventional CNN architectures being based on spatially
and depthwise discrete representations, which cannot accommodate certain
aspects of biological complexity such as continuously varying receptive field
sizes and dynamics of neuronal responses. Here we propose deep continuous
networks (DCNs), which combine spatially continuous filters, with the
continuous depth framework of neural ODEs. This allows us to learn the spatial
support of the filters during training, as well as model the continuous
evolution of feature maps, linking DCNs closely to biological models. We show
that DCNs are versatile and highly applicable to standard image classification
and reconstruction problems, where they improve parameter and data efficiency,
and allow for meta-parametrization. We illustrate the biological plausibility
of the scale distributions learned by DCNs and explore their performance in a
neuroscientifically inspired pattern completion task. Finally, we investigate
an efficient implementation of DCNs by changing input contrast.
- Abstract(参考訳): CNNと生物学的ビジョンの計算モデルはいくつかの基本的な原理を共有し、新たな研究の道を開いた。
しかし、実りあるクロスフィールド研究は、連続的に変化する受容野の大きさやニューロンの反応のダイナミクスといった生物学的複雑さの特定の側面に対応できない、空間的および奥行き的な離散表現に基づく従来のcnnアーキテクチャによって妨げられている。
本稿では,空間的連続フィルタとニューラルネットワークの連続深度フレームワークを組み合わせた深層連続ネットワーク(dcns)を提案する。
これにより、トレーニング中のフィルタの空間的サポートを学習し、特徴写像の連続的な進化をモデル化し、DCNを生物学的モデルに密接にリンクすることができる。
パラメータとデータ効率を改善し,メタパラメトリゼーションを可能にする標準画像分類・再構成問題に対して,DCNは汎用的で高い適用性を示す。
本稿では,DCNが学習したスケール分布の生物学的妥当性を概説し,神経科学的にインスパイアされたパターン完了タスクにおけるその性能について考察する。
最後に,入力コントラストの変更によるdcnsの効率的な実装について検討する。
関連論文リスト
- The Dynamic Net Architecture: Learning Robust and Holistic Visual Representations Through Self-Organizing Networks [3.9848584845601014]
動的ネットアーキテクチャ(DNA)と呼ばれる新しいインテリジェントシステムアーキテクチャを提案する。
DNAは繰り返し安定化されたネットワークに依存し、それを視覚に応用するために議論する。
論文 参考訳(メタデータ) (2024-07-08T06:22:10Z) - Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - Neural Echos: Depthwise Convolutional Filters Replicate Biological
Receptive Fields [56.69755544814834]
哺乳類網膜で観察される生体受容野を,深部核が効果的に複製していることを示す証拠を提示する。
生体受容の分野からインスピレーションを得る手法を提案する。
論文 参考訳(メタデータ) (2024-01-18T18:06:22Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Multi-scale Evolutionary Neural Architecture Search for Deep Spiking
Neural Networks [7.271032282434803]
スパイキングニューラルネットワーク(SNN)のためのマルチスケール進化型ニューラルネットワーク探索(MSE-NAS)を提案する。
MSE-NASは脳にインスパイアされた間接的評価機能であるRepresentational Dissimilarity Matrices(RDMs)を介して、個々のニューロンの操作、複数の回路モチーフの自己組織化の統合、およびグローバルなモチーフ間の接続を進化させる
提案アルゴリズムは,静的データセットとニューロモルフィックデータセットのシミュレーションステップを短縮して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-04-21T05:36:37Z) - Improving Neural Predictivity in the Visual Cortex with Gated Recurrent
Connections [0.0]
我々は,腹側視覚ストリームのユビキタスな特徴である横方向のリカレント接続を考慮したアーキテクチャに焦点を移し,適応的受容場を創出することを目指している。
本研究は,我々のアプローチの堅牢性と活性化の生物学的忠実性を高めるために,特定のデータ拡張技術を用いている。
論文 参考訳(メタデータ) (2022-03-22T17:27:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Finite Meta-Dynamic Neurons in Spiking Neural Networks for
Spatio-temporal Learning [13.037452551907657]
Spiking Neural Networks (SNN) は、生物学的に証明可能な構造と学習原則を取り入れている。
時相学習におけるネットワークの一般化を改善するために,SNNを改善するメタ動的ニューロン(MDN)を提案する。
MDNは空間的(MNIST)と時間的(TIt)データセットから生成され、その後様々な時間的タスクに拡張された。
論文 参考訳(メタデータ) (2020-10-07T03:49:28Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network [7.503685643036081]
空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
本稿では,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-19T01:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。