論文の概要: A Spacetime Perspective on Dynamical Computation in Neural Information Processing Systems
- arxiv url: http://arxiv.org/abs/2409.13669v1
- Date: Fri, 20 Sep 2024 17:25:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:08:43.871127
- Title: A Spacetime Perspective on Dynamical Computation in Neural Information Processing Systems
- Title(参考訳): ニューラル情報処理システムにおける動的計算の時空的展望
- Authors: T. Anderson Keller, Lyle Muller, Terrence J. Sejnowski, Max Welling,
- Abstract要約: ニューラル計算における新しい「時空」の視点を導入する。
時間的ダイナミクスは、自然のニューラルネットワークが近似的な視覚量をエンコードする、ということが示される。
- 参考スコア(独自算出の注目度): 43.02233537621737
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There is now substantial evidence for traveling waves and other structured spatiotemporal recurrent neural dynamics in cortical structures; but these observations have typically been difficult to reconcile with notions of topographically organized selectivity and feedforward receptive fields. We introduce a new 'spacetime' perspective on neural computation in which structured selectivity and dynamics are not contradictory but instead are complimentary. We show that spatiotemporal dynamics may be a mechanism by which natural neural systems encode approximate visual, temporal, and abstract symmetries of the world as conserved quantities, thereby enabling improved generalization and long-term working memory.
- Abstract(参考訳): 現在では、皮質構造における進行波やその他の時空間の時空間的リカレントな神経力学の実質的な証拠があるが、これらの観察は通常、地形的に整理された選択性やフィードフォワード受容の場の概念と整合することが困難である。
構造化された選択性と動的性は矛盾せず、補完的であるニューラル・コンピューティングの新しい「時空」視点を導入する。
時空間力学は、自然神経系が世界の近似的視覚的・時間的・抽象的対称性を保存量として符号化し、一般化と長期作業記憶の向上を可能にするメカニズムであることを示す。
関連論文リスト
- Neuron: Learning Context-Aware Evolving Representations for Zero-Shot Skeleton Action Recognition [64.56321246196859]
本稿では,dUalスケルトン・セマンティック・セマンティック・セマンティック・セマンティック・シンジスティック・フレームワークを提案する。
まず、時空間進化型マイクロプロトタイプを構築し、動的コンテキスト認識側情報を統合する。
本研究では,空間的圧縮と時間的記憶機構を導入し,空間的時間的マイクロプロトタイプの成長を導く。
論文 参考訳(メタデータ) (2024-11-18T05:16:11Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Neural timescales from a computational perspective [5.390514665166601]
神経活動の時間スケールは、脳領域内および脳領域で多様であり、実験的観察により、神経活動の時間スケールが動的環境の情報反映を示唆している。
ここでは、相補的な視点を採り、計算手法が幅広い経験的観察を定量的かつ検証可能な理論に抽出できる3つの方向を合成する。
論文 参考訳(メタデータ) (2024-09-04T13:16:20Z) - Covariant spatio-temporal receptive fields for neuromorphic computing [1.9365675487641305]
この研究は、スケール理論と計算神経科学の取り組みを組み合わせて、ニューロモルフィックシステムにおける時間的信号を処理するための理論的に確立された方法を特定する。
私たちのコントリビューションは、信号処理やイベントベースのビジョンに即時に関係しており、メモリや制御など、空間や時間とともに他の処理タスクにも拡張することができます。
論文 参考訳(メタデータ) (2024-05-01T04:51:10Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Backpropagation through space, time, and the brain [2.10686639478348]
我々は、ニューロンの物理的、動的ネットワークにおける完全局所的時間的クレジット割り当てのための計算フレームワークであるGeneral Latent Equilibriumを紹介する。
特に、GLEは樹状樹の形態を利用して、単一ニューロンのより複雑な情報保存と処理を可能にしている。
論文 参考訳(メタデータ) (2024-03-25T16:57:02Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Neural Spatio-Temporal Point Processes [31.474420819149724]
本稿では,ニューラルODEを計算手法として活用した,点自明なプロセスのための新しいパラメータ化のクラスを提案する。
我々は,地震学,疫学,都市移動性,神経科学など,さまざまな文脈のデータセットを用いて,我々のモデルを検証した。
論文 参考訳(メタデータ) (2020-11-09T17:28:23Z) - Nonseparable Symplectic Neural Networks [23.77058934710737]
我々は、新しいニューラルネットワークアーキテクチャ、非分離型シンプレクティックニューラルネットワーク(NSSNN)を提案する。
NSSNNは、限られた観測データから非分離ハミルトン系のシンプレクティック構造を発見し、埋め込む。
大規模ハミルトニアン系に対する長期的、正確で、堅牢な予測を得るためのアプローチの独特な計算上の利点を示す。
論文 参考訳(メタデータ) (2020-10-23T19:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。