論文の概要: Attractor-merging Crises and Intermittency in Reservoir Computing
- arxiv url: http://arxiv.org/abs/2504.12695v1
- Date: Thu, 17 Apr 2025 06:48:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:39:11.816578
- Title: Attractor-merging Crises and Intermittency in Reservoir Computing
- Title(参考訳): 貯留層コンピューティングにおけるトラクターマージの危機と断続性
- Authors: Tempei Kabayama, Motomasa Komuro, Yasuo Kuniyoshi, Kazuyuki Aihara, Kohei Nakajima,
- Abstract要約: 貯留層コンピューティングは、ランダムニューラルネットワーク(RNN)にアトラクタを埋め込むことができる
我々は,グローバルパラメータを調整するだけで,間欠性を伴うアトラクタ統合の危機が生じることを報告した。
- 参考スコア(独自算出の注目度): 3.7399138244928145
- License:
- Abstract: Reservoir computing can embed attractors into random neural networks (RNNs), generating a ``mirror'' of a target attractor because of its inherent symmetrical constraints. In these RNNs, we report that an attractor-merging crisis accompanied by intermittency emerges simply by adjusting the global parameter. We further reveal its underlying mechanism through a detailed analysis of the phase-space structure and demonstrate that this bifurcation scenario is intrinsic to a general class of RNNs, independent of training data.
- Abstract(参考訳): 貯留層計算は、アトラクタをランダムニューラルネットワーク(RNN)に埋め込むことができ、その固有の対称的制約のため、ターゲットアトラクタの‘mirror’を生成する。
これらのRNNでは,グローバルパラメータを調整するだけで,間欠性を伴うアトラクタ統合の危機が生じることを報告している。
さらに、位相空間構造を詳細に解析することにより、その基盤となるメカニズムを明らかにし、この分岐シナリオが訓練データとは独立に、一般のRNNに固有のものであることを示す。
関連論文リスト
- Learning Identifiable Structures Helps Avoid Bias in DNN-based Supervised Causal Learning [56.22841701016295]
Supervised Causal Learning (SCL)はこの分野で新興パラダイムである。
既存のディープニューラルネットワーク(DNN)ベースの手法では、"Node-Edgeアプローチ"が一般的である。
論文 参考訳(メタデータ) (2025-02-15T19:10:35Z) - Applying Hybrid Graph Neural Networks to Strengthen Credit Risk Analysis [4.457653449326353]
本稿では, グラフ畳み込みニューラルネットワーク(GCNN)を用いた信用リスク予測手法を提案する。
提案手法は、従来の信用リスク評価モデルが直面する課題、特に不均衡なデータセットを扱う際の課題に対処する。
この研究は、信用リスク予測の精度を向上させるためのGCNNの可能性を示し、金融機関にとって堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-05T20:49:05Z) - Risk Analysis in Customer Relationship Management via Quantile Region Convolutional Neural Network-Long Short-Term Memory and Cross-Attention Mechanism [3.5987853812352837]
本稿では、QRCNN-LSTM(quantile region convolutional neural network-long short-term memory)と、モデリングのためのクロスアテンション機構の利点を組み合わせた。
QRCNN-LSTMモデルは、シーケンスモデリングと自然言語処理タスクで一般的に使用されるディープラーニングアーキテクチャを組み合わせる。
クロスアテンションメカニズムは、異なる入力データ部分間のインタラクションを強化し、モデルがリスク分析に関連する特定の領域や特徴に集中できるようにする。
論文 参考訳(メタデータ) (2024-08-22T03:55:28Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Episodic Memory Theory for the Mechanistic Interpretation of Recurrent
Neural Networks [3.683202928838613]
本稿では,最近提案された一般逐次記憶モデルにおいて,RNNを離散時間アナログとして概念化できるという,エピソード記憶理論(EMT)を提案する。
本稿では,RNNにおける変数結合の振る舞いを探索するアルゴリズムを新たに導入する。
実験により、訓練されたRNNは可変結合回路に一貫して収束し、RNNのダイナミクスの普遍性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T20:52:37Z) - Dense Hebbian neural networks: a replica symmetric picture of
unsupervised learning [4.133728123207142]
我々は、監督なしで訓練された密集的で連想的なニューラルネットを考える。
本稿では,モンテカルロシミュレーションを用いて,その計算能力を解析的に,統計力学的手法を用いて,数値解析的に検討する。
論文 参考訳(メタデータ) (2022-11-25T12:40:06Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。