論文の概要: A Survey on Reservoir Computing and its Interdisciplinary Applications
Beyond Traditional Machine Learning
- arxiv url: http://arxiv.org/abs/2307.15092v1
- Date: Thu, 27 Jul 2023 05:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 14:52:27.611880
- Title: A Survey on Reservoir Computing and its Interdisciplinary Applications
Beyond Traditional Machine Learning
- Title(参考訳): 伝統的機械学習を超えた貯留層コンピューティングとその学際的応用に関する研究
- Authors: Heng Zhang and Danilo Vasconcellos Vargas
- Abstract要約: Reservoir Computing (RC) は、ニューロンがランダムに接続されたリカレントニューラルネットワークである。
モデルのリッチなダイナミクス、線形分離性、メモリ容量は、単純な線形読み出しによって応答を生成する。
RCは、様々な物理ハードウェア実装で複雑な力学が実現できることが示されているため、機械学習以外の領域にまたがっている。
- 参考スコア(独自算出の注目度): 17.865755866792643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reservoir computing (RC), first applied to temporal signal processing, is a
recurrent neural network in which neurons are randomly connected. Once
initialized, the connection strengths remain unchanged. Such a simple structure
turns RC into a non-linear dynamical system that maps low-dimensional inputs
into a high-dimensional space. The model's rich dynamics, linear separability,
and memory capacity then enable a simple linear readout to generate adequate
responses for various applications. RC spans areas far beyond machine learning,
since it has been shown that the complex dynamics can be realized in various
physical hardware implementations and biological devices. This yields greater
flexibility and shorter computation time. Moreover, the neuronal responses
triggered by the model's dynamics shed light on understanding brain mechanisms
that also exploit similar dynamical processes. While the literature on RC is
vast and fragmented, here we conduct a unified review of RC's recent
developments from machine learning to physics, biology, and neuroscience. We
first review the early RC models, and then survey the state-of-the-art models
and their applications. We further introduce studies on modeling the brain's
mechanisms by RC. Finally, we offer new perspectives on RC development,
including reservoir design, coding frameworks unification, physical RC
implementations, and interaction between RC, cognitive neuroscience and
evolution.
- Abstract(参考訳): 貯水池計算 (rc) は、時間的信号処理に初めて適用され、ニューロンがランダムに接続されたリカレントニューラルネットワークである。
初期化後、接続強度は変化しない。
このような単純な構造は、RCを低次元入力を高次元空間にマッピングする非線形力学系に変える。
モデルのリッチなダイナミクス、線形分離性、メモリ容量は、単純な線形読み出しを可能にし、様々なアプリケーションに対して適切な応答を生成する。
rcは、複雑なダイナミクスが様々な物理ハードウェア実装や生体デバイスで実現できることが示されているため、機械学習をはるかに超える領域にまたがっている。
これにより柔軟性が向上し、計算時間が短縮される。
さらに、モデルのダイナミックスによって引き起こされる神経反応は、同様のダイナミックなプロセスを利用する脳のメカニズムを理解することに光を当てた。
RCに関する文献は広く、断片化されているが、ここでは、機械学習から物理学、生物学、神経科学まで、RCの最近の発展を統一的にレビューする。
まず、初期のRCモデルをレビューし、続いて最先端モデルとそのアプリケーションを調査します。
さらに,脳のメカニズムをRCでモデル化する研究を紹介する。
最後に,リザーバ設計,コーディングフレームワーク統合,物理的rc実装,rc,認知神経科学,進化の相互作用など,rc開発に関する新たな視点を提供する。
関連論文リスト
- Hardware-Friendly Implementation of Physical Reservoir Computing with CMOS-based Time-domain Analog Spiking Neurons [0.26963330643873434]
本稿では, 相補的金属酸化物半導体(CMOS)プラットフォーム上でのハードウェアフレンドリーな物理貯水池計算のためのスパイクニューラルネットワーク(SNN)を提案する。
短期記憶と排他的ORタスクによるRCと、97.7%の精度で音声桁認識タスクを実演する。
論文 参考訳(メタデータ) (2024-09-18T00:23:00Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - DSAM: A Deep Learning Framework for Analyzing Temporal and Spatial Dynamics in Brain Networks [4.041732967881764]
ほとんどのrs-fMRI研究は、関心のある脳領域にまたがる単一の静的機能接続行列を計算している。
これらのアプローチは、脳のダイナミクスを単純化し、目の前のゴールを適切に考慮していないリスクがある。
本稿では,時系列から直接ゴール固有の機能的接続行列を学習する,解釈可能な新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-19T23:35:06Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Spike-based local synaptic plasticity: A survey of computational models
and neuromorphic circuits [1.8464222520424338]
シナプス可塑性のモデル化における歴史的,ボトムアップ的,トップダウン的なアプローチを概観する。
スパイクベース学習ルールの低レイテンシおよび低消費電力ハードウェア実装をサポートする計算プリミティブを同定する。
論文 参考訳(メタデータ) (2022-09-30T15:35:04Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - Constructing Neural Network-Based Models for Simulating Dynamical
Systems [59.0861954179401]
データ駆動モデリングは、真のシステムの観測からシステムの力学の近似を学ぼうとする代替パラダイムである。
本稿では,ニューラルネットワークを用いた動的システムのモデル構築方法について検討する。
基礎的な概要に加えて、関連する文献を概説し、このモデリングパラダイムが克服すべき数値シミュレーションから最も重要な課題を概説する。
論文 参考訳(メタデータ) (2021-11-02T10:51:42Z) - Learning Continuous Chaotic Attractors with a Reservoir Computer [0.0]
我々は1000ニューロンのRNNをトレーニングし、動的アトラクションメモリの分離例から連続的動的アトラクションメモリを抽象化する。
RCを安定な極限サイクルまたはカオス的なローレンツ引力の孤立およびシフトした例で訓練することにより、RCは、余剰のリャプノフ指数が 0 に等しいように、引力の連続性を学ぶ。
論文 参考訳(メタデータ) (2021-10-16T18:07:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。