論文の概要: Learning Continuous Chaotic Attractors with a Reservoir Computer
- arxiv url: http://arxiv.org/abs/2110.08631v1
- Date: Sat, 16 Oct 2021 18:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 08:03:58.539437
- Title: Learning Continuous Chaotic Attractors with a Reservoir Computer
- Title(参考訳): 貯留層コンピュータによる連続カオスアトラクタの学習
- Authors: Lindsay M. Smith (1), Jason Z. Kim (1), Zhixin Lu (1), Dani S. Bassett
(1 and 2) ((1) University of Pennsylvania, (2) Santa Fe Institute)
- Abstract要約: 我々は1000ニューロンのRNNをトレーニングし、動的アトラクションメモリの分離例から連続的動的アトラクションメモリを抽象化する。
RCを安定な極限サイクルまたはカオス的なローレンツ引力の孤立およびシフトした例で訓練することにより、RCは、余剰のリャプノフ指数が 0 に等しいように、引力の連続性を学ぶ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural systems are well known for their ability to learn and store
information as memories. Even more impressive is their ability to abstract
these memories to create complex internal representations, enabling advanced
functions such as the spatial manipulation of mental representations. While
recurrent neural networks (RNNs) are capable of representing complex
information, the exact mechanisms of how dynamical neural systems perform
abstraction are still not well-understood, thereby hindering the development of
more advanced functions. Here, we train a 1000-neuron RNN -- a reservoir
computer (RC) -- to abstract a continuous dynamical attractor memory from
isolated examples of dynamical attractor memories. Further, we explain the
abstraction mechanism with new theory. By training the RC on isolated and
shifted examples of either stable limit cycles or chaotic Lorenz attractors,
the RC learns a continuum of attractors, as quantified by an extra Lyapunov
exponent equal to zero. We propose a theoretical mechanism of this abstraction
by combining ideas from differentiable generalized synchronization and feedback
dynamics. Our results quantify abstraction in simple neural systems, enabling
us to design artificial RNNs for abstraction, and leading us towards a neural
basis of abstraction.
- Abstract(参考訳): ニューラルネットワークは、情報を学習し記憶として保存する能力でよく知られている。
さらに印象的なのは、これらの記憶を抽象化して複雑な内部表現を作り、心的表現の空間的操作のような高度な機能を実現する能力である。
リカレントニューラルネットワーク(RNN)は複雑な情報を表現できるが、動的ニューラルネットワークの抽象化の正確なメカニズムはまだよく理解されていないため、より高度な関数の開発を妨げる。
ここでは,1,000-neuron rnn -- 貯水池コンピュータ(rc) -- を訓練し,動的アトラクタメモリの孤立例から連続的な動的アトラクタメモリを抽象化する。
さらに,この抽象化機構を新しい理論で説明する。
rcは、安定なリミットサイクルまたはカオスロレンツアトラクタの孤立およびシフトの例でrcを訓練することで、0に等しい余剰リアプノフ指数によって定量化されたアトラクタの連続体を学ぶ。
微分可能一般化同期とフィードバックダイナミクスのアイデアを組み合わせることで,この抽象化の理論的メカニズムを提案する。
我々の結果は、単純なニューラルネットワークで抽象化を定量化し、抽象のために人工RNNを設計し、抽象の神経基盤へと導くことができる。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Trainability, Expressivity and Interpretability in Gated Neural ODEs [0.0]
本稿では,ニューラルネットワークのキャパシティを探索して複雑なトラジェクトリを生成する,表現性の新たな尺度を提案する。
本研究は,低次元のgnODEがモデリング能力を保ちながら,解釈可能性を大幅に向上することを示す。
また,複数の実世界のタスクにおいて,NODEにおけるゲーティングの利点を示す。
論文 参考訳(メタデータ) (2023-07-12T18:29:01Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - A brain basis of dynamical intelligence for AI and computational
neuroscience [0.0]
より多くの脳のような能力は、新しい理論、モデル、および人工学習システムを設計する方法を要求するかもしれない。
本稿は,第6回US/NIH BRAIN Initiative Investigators Meetingにおける動的神経科学と機械学習に関するシンポジウムに触発されたものです。
論文 参考訳(メタデータ) (2021-05-15T19:49:32Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z) - Teaching Recurrent Neural Networks to Modify Chaotic Memories by Example [14.91507266777207]
繰り返しニューラルネットワークは,実例のみを用いて複雑な情報の表現を変更できることが示される。
我々は,これらの計算を学習するためのメカニズムを提供し,一つのネットワークが同時に複数の計算を学習できることを実証する。
論文 参考訳(メタデータ) (2020-05-03T20:51:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。