論文の概要: Going in circles is the way forward: the role of recurrence in visual
inference
- arxiv url: http://arxiv.org/abs/2003.12128v3
- Date: Mon, 16 Nov 2020 13:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 22:07:47.691894
- Title: Going in circles is the way forward: the role of recurrence in visual
inference
- Title(参考訳): 円の中を進むことが進む道--視覚的推論における再発の役割
- Authors: Ruben S. van Bergen, Nikolaus Kriegeskorte
- Abstract要約: 視覚認識のための最先端のニューラルネットワークモデルは、フィードフォワード計算に大きく、あるいは排他的に依存している。
この重要な洞察は、計算神経科学者が繰り返し計算を行う必要がないことを示唆している。
我々は、FNNはRNNの特殊なケースであり、計算神経科学者や技術者は、脳や機械がより柔軟で柔軟な計算深度を達成する方法を理解するために、繰り返し作業を行うべきであると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biological visual systems exhibit abundant recurrent connectivity.
State-of-the-art neural network models for visual recognition, by contrast,
rely heavily or exclusively on feedforward computation. Any finite-time
recurrent neural network (RNN) can be unrolled along time to yield an
equivalent feedforward neural network (FNN). This important insight suggests
that computational neuroscientists may not need to engage recurrent
computation, and that computer-vision engineers may be limiting themselves to a
special case of FNN if they build recurrent models. Here we argue, to the
contrary, that FNNs are a special case of RNNs and that computational
neuroscientists and engineers should engage recurrence to understand how brains
and machines can (1) achieve greater and more flexible computational depth, (2)
compress complex computations into limited hardware, (3) integrate priors and
priorities into visual inference through expectation and attention, (4) exploit
sequential dependencies in their data for better inference and prediction, and
(5) leverage the power of iterative computation.
- Abstract(参考訳): 生体視覚系は豊富な繰り返し接続を示す。
対照的に、視覚認識のための最先端のニューラルネットワークモデルは、フィードフォワード計算に強く、または専ら依存している。
任意の有限時間リカレントニューラルネットワーク(RNN)は、時間に沿ってアンロールされ、等価なフィードフォワードニューラルネットワーク(FNN)が得られる。
この重要な洞察は、計算神経科学者は再帰的な計算を行う必要はなく、コンピュータビジョンのエンジニアは、再帰的なモデルを構築する場合、FNNの特別なケースに制限される可能性があることを示唆している。
Here we argue, to the contrary, that FNNs are a special case of RNNs and that computational neuroscientists and engineers should engage recurrence to understand how brains and machines can (1) achieve greater and more flexible computational depth, (2) compress complex computations into limited hardware, (3) integrate priors and priorities into visual inference through expectation and attention, (4) exploit sequential dependencies in their data for better inference and prediction, and (5) leverage the power of iterative computation.
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - On the Computational Complexity and Formal Hierarchy of Second Order
Recurrent Neural Networks [59.85314067235965]
2次次リカレントネットワーク(RNN)の理論基盤を拡大する(2次RNN)
有界時間でチューリング完備な RNN のクラスが存在することを証明している。
また、記憶のない2ドルのRNNは、バニラRNNのような現代のモデルよりも優れており、正規文法の認識において繰り返し単位をゲートしていることを示す。
論文 参考訳(メタデータ) (2023-09-26T06:06:47Z) - Computational and Storage Efficient Quadratic Neurons for Deep Neural
Networks [10.379191500493503]
実験により、提案した二次ニューロン構造は、様々なタスクにおいて優れた計算効率と記憶効率を示すことが示された。
本研究は、2次計算情報の高度活用によって区別される2次ニューロンアーキテクチャを導入する。
論文 参考訳(メタデータ) (2023-06-10T11:25:31Z) - Exploiting Noise as a Resource for Computation and Learning in Spiking
Neural Networks [32.0086664373154]
本研究では,雑音型スパイクニューラルネットワーク(NSNN)とノイズ駆動学習規則(NDL)を紹介する。
NSNNは、スケーラブルでフレキシブルで信頼性の高い計算をもたらす理論的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-25T13:21:26Z) - Toward stochastic neural computing [11.955322183964201]
本稿では,ノイズ入力のストリームをスパイキングニューロンの集団によって変換し,処理するニューラルコンピューティングの理論を提案する。
本手法をIntelのLoihiニューロモルフィックハードウェアに適用する。
論文 参考訳(メタデータ) (2023-05-23T12:05:35Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Predictive Coding: Towards a Future of Deep Learning beyond
Backpropagation? [41.58529335439799]
ディープニューラルネットワークのトレーニングに使用されるエラーアルゴリズムのバックプロパゲーションは、ディープラーニングの成功に不可欠である。
最近の研究は、このアイデアを、局所的な計算だけでニューラルネットワークを訓練できる汎用アルゴリズムへと発展させた。
等価ディープニューラルネットワークに対する予測符号化ネットワークの柔軟性が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T22:57:03Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。