論文の概要: Primate-like perceptual decision making emerges through deep recurrent reinforcement learning
- arxiv url: http://arxiv.org/abs/2601.12577v1
- Date: Sun, 18 Jan 2026 20:43:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.688186
- Title: Primate-like perceptual decision making emerges through deep recurrent reinforcement learning
- Title(参考訳): 深部強化学習による霊長類様の知覚的意思決定
- Authors: Nathan J. Wispinski, Scott A. Stone, Anthony Singhal, Patrick M. Pilarski, Craig S. Chapman,
- Abstract要約: 理論は、霊長類の意思決定機構とその結果として生じる行動能力は、ノイズや時間的に進化する情報に直面して報酬を最大化するために現れたことを示唆している。
ノイズの多い知覚的識別タスクにおいて、強化学習を用いて終端から終端までのディープ・リカレント・ニューラルネットワークを訓練する。
ネットワークは霊長類のような意思決定のいくつかの重要な能力を学びました。
- 参考スコア(独自算出の注目度): 0.9873683185244583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Progress has led to a detailed understanding of the neural mechanisms that underlie decision making in primates. However, less is known about why such mechanisms are present in the first place. Theory suggests that primate decision making mechanisms, and their resultant behavioral abilities, emerged to maximize reward in the face of noisy, temporally evolving information. To test this theory, we trained an end-to-end deep recurrent neural network using reinforcement learning on a noisy perceptual discrimination task. Networks learned several key abilities of primate-like decision making including trading off speed for accuracy, and flexibly changing their mind in the face of new information. Internal dynamics of these networks suggest that these abilities were supported by similar decision mechanisms as those observed in primate neurophysiological studies. These results provide experimental support for key pressures that gave rise to the primate ability to make flexible decisions.
- Abstract(参考訳): 進歩は霊長類における決定を下す神経機構の詳細な理解につながった。
しかし、そもそもなぜそのようなメカニズムが存在するのかは分かっていない。
理論は、霊長類の意思決定機構とその結果として生じる行動能力は、ノイズや時間的に進化する情報に直面して報酬を最大化するために現れたことを示唆している。
この理論をテストするために、雑音の多い知覚識別タスク上で強化学習を用いてエンドツーエンドのディープ・リカレント・ニューラルネットワークを訓練した。
ネットワークは霊長類のような意思決定のいくつかの重要な能力を学びました。
これらのネットワークの内部力学は、これらの能力が霊長類神経生理学的研究で観察されたものと類似した決定機構によって支持されたことを示唆している。
これらの結果は、フレキシブルな決定をする霊長類能力を引き起こす主要な圧力に対する実験的支援を提供する。
関連論文リスト
- Interpreting Transformers Through Attention Head Intervention [2.359807654268406]
メカニスティック解釈は、ハイテイクドメインにおける説明責任と制御を可能にする。
最近の研究は、機械的理解がモデル行動のターゲット制御を可能にしていることを示している。
本稿では,変圧器の因果解釈に重要な手法として,頭部介入が出現した経緯を追究する。
論文 参考訳(メタデータ) (2026-01-07T21:15:20Z) - Evolution imposes an inductive bias that alters and accelerates learning dynamics [49.1574468325115]
進化的最適化がニューラルネットワークの学習力学に与える影響について検討する。
我々は,アルゴリズムの自然選択とオンライン学習を組み合わせて,ニューラルネットワークの進化的条件付け手法を開発した。
結果は、進化はニューラルネットワークをチューニングして迅速な学習を可能にする誘導バイアスを構成することを示唆している。
論文 参考訳(メタデータ) (2025-05-15T18:50:57Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方では、ニューロン間の'バインディング'が、ネットワークの深い層においてより抽象的な概念を表現するために表現を圧縮する、競争的な学習の形式につながることが知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、定量化、推論など、幅広いタスクにわたるパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Learn to integrate parts for whole through correlated neural variability [8.173681663544757]
感覚知覚は感覚ニューロンの反応に起因し、特定の知覚物体の物理的特性に関連付けられた知覚信号の集まりに反応する。
これらの神経反応から脳がどのように知覚情報を抽出するかを明らかにすることは、計算神経科学と機械学習の両方において重要な課題である。
本稿では,知覚情報を知覚ニューロンの相関変数に符号化し,下流ニューロンの発火速度に変換する統計力学理論を提案する。
論文 参考訳(メタデータ) (2024-01-01T13:05:29Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Goal-Driven Approach to Systems Neuroscience [2.6451153531057985]
人間と動物は、動的環境において様々な興味深い行動を示す。
私たちの脳が、こうした行動を可能にするために、どのようにしてこの密集した感覚情報を積極的に再構築するかは不明です。
我々は、ニューラルサーキットの統一構造モデルと機能モデルを生み出すことを約束する新しい解釈可能性の定義を提供する。
論文 参考訳(メタデータ) (2023-11-05T16:37:53Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Learning by Active Forgetting for Neural Networks [36.47528616276579]
記憶と忘れのメカニズムは、人間の学習記憶システムにおいて、同じコインの2つの側面である。
現代の機械学習システムは、記憶を良くすることで、生涯にわたる学習能力を持つ機械を育むために取り組んできた。
本稿では,ニューラルネットワークを用いた能動的記憶機構による学習モデルを提案する。
論文 参考訳(メタデータ) (2021-11-21T14:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。