論文の概要: Setting up for failure: automatic discovery of the neural mechanisms of cognitive errors
- arxiv url: http://arxiv.org/abs/2512.04808v1
- Date: Thu, 04 Dec 2025 14:00:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.196543
- Title: Setting up for failure: automatic discovery of the neural mechanisms of cognitive errors
- Title(参考訳): 失敗のためのセットアップ:認知的エラーの神経機構の自動発見
- Authors: Puria Radmard, Paul M. Bays, Máté Lengyel,
- Abstract要約: 行動応答の非パラメトリック生成モデルを用いて、RNNのトレーニングのための代理データを生成する。
そこで我々は,RNNを学習するための拡散モデルに基づく新しい手法を開発した。
- 参考スコア(独自算出の注目度): 7.041349097212527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discovering the neural mechanisms underpinning cognition is one of the grand challenges of neuroscience. However, previous approaches for building models of RNN dynamics that explain behaviour required iterative refinement of architectures and/or optimisation objectives, resulting in a piecemeal, and mostly heuristic, human-in-the-loop process. Here, we offer an alternative approach that automates the discovery of viable RNN mechanisms by explicitly training RNNs to reproduce behaviour, including the same characteristic errors and suboptimalities, that humans and animals produce in a cognitive task. Achieving this required two main innovations. First, as the amount of behavioural data that can be collected in experiments is often too limited to train RNNs, we use a non-parametric generative model of behavioural responses to produce surrogate data for training RNNs. Second, to capture all relevant statistical aspects of the data, we developed a novel diffusion model-based approach for training RNNs. To showcase the potential of our approach, we chose a visual working memory task as our test-bed, as behaviour in this task is well known to produce response distributions that are patently multimodal (due to swap errors). The resulting network dynamics correctly qualitative features of macaque neural data. Importantly, these results were not possible to obtain with more traditional approaches, i.e., when only a limited set of behavioural signatures (rather than the full richness of behavioural response distributions) were fitted, or when RNNs were trained for task optimality (instead of reproducing behaviour). Our approach also yields novel predictions about the mechanism of swap errors, which can be readily tested in experiments. These results suggest that fitting RNNs to rich patterns of behaviour provides a powerful way to automatically discover mechanisms of important cognitive functions.
- Abstract(参考訳): 認知の基盤となる神経メカニズムを明らかにすることは、神経科学の大きな課題の1つである。
しかしながら、振る舞いを説明するRNNダイナミクスのモデルを構築するための以前のアプローチでは、アーキテクチャの反復的な洗練と/または最適化の目標が必要であり、結果として、断片的で、主にヒューリスティックで、ループ内の人間的なプロセスが生まれました。
本稿では,人間や動物が認知タスクで生み出すのと同じ特徴的誤りや準最適性を含む行動の再現をRNNに明示的に訓練することで,実行可能なRNNメカニズムの発見を自動化する方法を提案する。
この達成には2つの大きな革新が必要だった。
まず、実験で収集できる行動データは、しばしばRNNのトレーニングに制限されるため、非パラメトリックな行動応答生成モデルを用いて、RNNのトレーニングのために代理データを生成する。
次に,RNNを学習するための拡散モデルに基づく新しい手法を開発した。
このタスクの動作は、特許上のマルチモーダルな応答分布(エラーのスワップのため)を生成するのによく知られているため、我々のアプローチの可能性を実証するために、テストベッドとして視覚的ワーキングメモリタスクを選択しました。
結果として生じるネットワークダイナミクスは、マカクティックニューラルネットワークの質的特徴を正しく定式化する。
重要なことは、これらの結果が従来のアプローチでは得られなかったこと、つまり、限られた行動シグネチャ(行動応答分布の完全豊かさではなく)が組み込まれた場合や、RNNがタスク最適性(行動の再生ではなく)のために訓練された場合である。
また,本手法は,実験で容易に検証可能なスワップエラーのメカニズムについて,新たな予測を導出する。
これらの結果は、RNNをリッチな行動パターンに適合させることが、重要な認知機能のメカニズムを自動的に発見する強力な方法となることを示唆している。
関連論文リスト
- Discovering alternative solutions beyond the simplicity bias in recurrent neural networks [36.12962884836429]
神経科学的なタスクを実行するためのリカレントニューラルネットワーク(RNN)のトレーニングは、ニューラルネットワークがどのように計算を行うかの仮説を生成する一般的な方法となっている。
最近の研究は、タスク学習されたRNNが強力な単純さバイアスを持つことを示した。
本稿では、この帰納バイアスを破るために、反復的ニューラル類似度デフレを提案する。
論文 参考訳(メタデータ) (2025-09-25T19:59:04Z) - BLEND: Behavior-guided Neural Population Dynamics Modeling via Privileged Knowledge Distillation [6.3559178227943764]
本稿では,特権的知識蒸留による行動誘導型ニューラル人口動態モデリングフレームワークBLENDを提案する。
特権情報として行動を考えることにより、行動観察(私的特徴)と神経活動(正規特徴)の両方を入力として扱う教師モデルを訓練する。
学生モデルは神経活動のみを用いて蒸留される。
論文 参考訳(メタデータ) (2024-10-02T12:45:59Z) - Inferring stochastic low-rank recurrent neural networks from neural data [5.179844449042386]
計算神経科学における中心的な目的は、大きなニューロンの活動と基礎となる力学系を関連付けることである。
低ランクリカレントニューラルネットワーク(RNN)は、トラクタブルダイナミクスを持つことによって、そのような解釈可能性を示す。
そこで本研究では,低ランクRNNをモンテカルロ変分法に適合させる手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T15:57:49Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Path classification by stochastic linear recurrent neural networks [2.5499055723658097]
トレーニングや分類作業に利用されるユニークな情報として,RNNが供給される経路の部分的なシグネチャを保持することを示す。
これらのRNNは訓練が容易で堅牢であり、これらの観測を合成データと実データの両方で数値実験で裏付けるものである、と我々は主張する。
論文 参考訳(メタデータ) (2021-08-06T12:59:12Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。