論文の概要: Functional differentiations in evolutionary reservoir computing networks
- arxiv url: http://arxiv.org/abs/2006.11507v2
- Date: Fri, 27 Nov 2020 12:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:46:04.892160
- Title: Functional differentiations in evolutionary reservoir computing networks
- Title(参考訳): 進化的貯水池計算ネットワークにおける機能分化
- Authors: Yutaka Yamaguti and Ichiro Tsuda
- Abstract要約: 本稿では,ニューロンの機能的分化を示す拡張型貯水池コンピュータを提案する。
本発明の貯水池コンピュータは、進化力学を用いて内部貯水池の変更を可能にするために開発された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an extended reservoir computer that shows the functional
differentiation of neurons. The reservoir computer is developed to enable
changing of the internal reservoir using evolutionary dynamics, and we call it
an evolutionary reservoir computer. To develop neuronal units to show
specificity, depending on the input information, the internal dynamics should
be controlled to produce contracting dynamics after expanding dynamics.
Expanding dynamics magnifies the difference of input information, while
contracting dynamics contributes to forming clusters of input information,
thereby producing multiple attractors. The simultaneous appearance of both
dynamics indicates the existence of chaos. In contrast, sequential appearance
of these dynamics during finite time intervals may induce functional
differentiations. In this paper, we show how specific neuronal units are
yielded in the evolutionary reservoir computer.
- Abstract(参考訳): ニューロンの機能的分化を示す拡張型貯水池コンピュータを提案する。
本発明の貯水池コンピュータは,進化力学を用いて内部貯水池の変更を可能にするために開発され,これを進化貯水池コンピュータと呼ぶ。
入力情報に応じて特異性を示す神経ユニットを開発するためには、内部ダイナミクスを制御し、ダイナミックスを拡張した後の収縮ダイナミクスを生成する必要がある。
拡張ダイナミクスは入力情報の差を拡大するが、縮小ダイナミクスは入力情報のクラスターの形成に寄与し、複数のアトラクタを生成する。
両方のダイナミクスの同時出現はカオスの存在を示している。
対照的に、有限時間間隔におけるこれらのダイナミクスのシーケンシャルな出現は機能的な分化を引き起こす可能性がある。
本稿では,進化的貯水池コンピュータにおいて,特定のニューロン単位がどのように得られるかを示す。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Learning Dynamics from Multicellular Graphs with Deep Neural Networks [7.263827692589625]
グラフニューラルネットワーク (GNN) を用いて, セル位置の静的スナップショットから, 多細胞集団の動きを推定できることを示す。
論文 参考訳(メタデータ) (2024-01-22T18:36:29Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Self-Evolutionary Reservoir Computer Based on Kuramoto Model [1.7072337666116733]
生物学的にインスパイアされたニューラルネットワークとして、貯水池コンピューティング(RC)は情報処理においてユニークなアドバンテージを持っている。
本研究では,人的知識を必要とせず,手元にある特定の問題に適応できる構造的自律開発貯水池計算モデルを提案する。
論文 参考訳(メタデータ) (2023-01-25T15:53:39Z) - Seeing the forest and the tree: Building representations of both
individual and collective dynamics with transformers [6.543007700542191]
時間変化データから学習するトランスフォーマーアーキテクチャを提案する。
本モデルは,多体システムにおける複雑な相互作用や力学の回復に有効であることを示す。
実験の結果, ある動物の脳のニューロンから学習し, 異なる動物の脳のニューロンにモデルを移すことが可能であることが確認された。
論文 参考訳(メタデータ) (2022-06-10T07:14:57Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Capturing Actionable Dynamics with Structured Latent Ordinary
Differential Equations [68.62843292346813]
本稿では,その潜在表現内でのシステム入力の変動をキャプチャする構造付き潜在ODEモデルを提案する。
静的変数仕様に基づいて,本モデルではシステムへの入力毎の変動要因を学習し,潜在空間におけるシステム入力の影響を分離する。
論文 参考訳(メタデータ) (2022-02-25T20:00:56Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Evolving spiking neuron cellular automata and networks to emulate in
vitro neuronal activity [0.0]
我々は生体内における生体ニューロンの行動パターンをエミュレートするスパイキング神経系を生産する。
我々のモデルは、ネットワーク全体の同期レベルを生成できた。
トップパフォーマンスモデルのゲノムは、生成した活動の複雑さを決定する上で、モデル内の接続の興奮性と密度が重要な役割を果たすことを示している。
論文 参考訳(メタデータ) (2021-10-15T17:55:04Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。