論文の概要: Confabulation dynamics in a reservoir computer: Filling in the gaps with untrained attractors
- arxiv url: http://arxiv.org/abs/2505.04792v1
- Date: Wed, 07 May 2025 20:38:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.673642
- Title: Confabulation dynamics in a reservoir computer: Filling in the gaps with untrained attractors
- Title(参考訳): 貯水池コンピュータにおける衝突ダイナミクス:未学習の誘引者とのギャップを埋める
- Authors: Jack O'Hagan, Andrew Keane, Andrew Flynn,
- Abstract要約: 貯水池コンピュータ(RC)における衝突の発生状況について検討する。
RCが与えられたアトラクションのダイナミクスを再構築するために訓練された場合、彼らは時にアトラクションを構築するために訓練されていないアトラクションを組み立てる。
本稿では,再建に失敗する場合にUAが果たす役割と,再建されたアトラクション間の遷移をモデル化する場合の影響について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence has advanced significantly in recent years thanks to innovations in the design and training of artificial neural networks (ANNs). Despite these advancements, we still understand relatively little about how elementary forms of ANNs learn, fail to learn, and generate false information without the intent to deceive, a phenomenon known as `confabulation'. To provide some foundational insight, in this paper we analyse how confabulation occurs in reservoir computers (RCs): a dynamical system in the form of an ANN. RCs are particularly useful to study as they are known to confabulate in a well-defined way: when RCs are trained to reconstruct the dynamics of a given attractor, they sometimes construct an attractor that they were not trained to construct, a so-called `untrained attractor' (UA). This paper sheds light on the role played by UAs when reconstruction fails and their influence when modelling transitions between reconstructed attractors. Based on our results, we conclude that UAs are an intrinsic feature of learning systems whose state spaces are bounded, and that this means of confabulation may be present in systems beyond RCs.
- Abstract(参考訳): 人工知能は、人工知能(ANN)の設計とトレーニングの革新のおかげで、近年大きく進歩している。
これらの進歩にもかかわらず、我々はANNの基本的な形態がどのように学習し、学習を怠り、偽の情報を生成するかについて、いまだにほとんど理解していない。
本稿では,貯水池コンピュータ (RC) において, ANN という形態の力学系がどのように折り畳みが起こるのかを解析する。
RCが与えられたアトラクションのダイナミクスを再構築するために訓練されたとき、彼らは時に、彼らが構築するために訓練されていないアトラクション(いわゆる「訓練されていないアトラクション(untrained attractor、UA)」)を構築する。
本稿では,再建に失敗する場合にUAが果たす役割と,再建されたアトラクション間の遷移をモデル化する場合の影響について述べる。
その結果,UAは状態空間が有界な学習システムの本質的な特徴であり,この折り畳みの手段がRC以外のシステムに存在している可能性が示唆された。
関連論文リスト
- Exploring the origins of switching dynamics in a multifunctional reservoir computer [0.0]
貯水池コンピュータ(RC)は、同じ訓練された重量のセットを使用して、同時に複数のアトラクションを再構築する。
ある場合、RCが引き金の共存を再構築できなかった場合、転移性を示す。
本稿では,これらスイッチングダイナミクスの起源を,両立問題によるパラダイム設定で考察する。
論文 参考訳(メタデータ) (2024-08-27T20:51:48Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Low-Rank Learning by Design: the Role of Network Architecture and
Activation Linearity in Gradient Rank Collapse [14.817633094318253]
ディープニューラルネットワーク(DNN)におけるデータ効果勾配ランクのアーキテクチャ的選択と構造について検討する。
我々の理論的分析は、完全連結、再帰、畳み込みニューラルネットワークのトレーニングにこれらの境界を提供する。
また、理論的にも経験的にも、アクティベーション関数の線形性、ボトルネック層の導入、畳み込みストライド、シーケンストランケーションといった設計選択がこれらの境界にどのように影響するかを示す。
論文 参考訳(メタデータ) (2024-02-09T19:28:02Z) - On the Dynamics of Learning Time-Aware Behavior with Recurrent Neural
Networks [2.294014185517203]
隠れ時間変数に依存する教師付き学習タスクのファミリーを導入する。
我々は、長期記憶に対する時間認識の必要性を強調する時間的フリップフロップをエミュレートするためにRNNを訓練する。
これらのRNNは、遷移規則の周期を時間変調する周期軌道を切り替えることを学ぶ。
論文 参考訳(メタデータ) (2023-06-12T14:01:30Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Learning Continuous Chaotic Attractors with a Reservoir Computer [0.0]
我々は1000ニューロンのRNNをトレーニングし、動的アトラクションメモリの分離例から連続的動的アトラクションメモリを抽象化する。
RCを安定な極限サイクルまたはカオス的なローレンツ引力の孤立およびシフトした例で訓練することにより、RCは、余剰のリャプノフ指数が 0 に等しいように、引力の連続性を学ぶ。
論文 参考訳(メタデータ) (2021-10-16T18:07:27Z) - Model-free inference of unseen attractors: Reconstructing phase space
features from a single noisy trajectory using reservoir computing [0.0]
貯留層コンピュータはカオス時系列予測のための強力なツールである。
複雑なシステムの力学を学習する能力は、既存のアトラクションを持つシステムにも拡張可能であることを示す。
論文 参考訳(メタデータ) (2021-08-06T07:40:58Z) - GEM: Group Enhanced Model for Learning Dynamical Control Systems [78.56159072162103]
サンプルベースの学習が可能な効果的なダイナミクスモデルを構築します。
リー代数ベクトル空間上のダイナミクスの学習は、直接状態遷移モデルを学ぶよりも効果的であることを示す。
この研究は、ダイナミクスの学習とリー群の性質の関連性を明らかにし、新たな研究の方向への扉を開く。
論文 参考訳(メタデータ) (2021-04-07T01:08:18Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。