論文の概要: Learning offline: memory replay in biological and artificial
reinforcement learning
- arxiv url: http://arxiv.org/abs/2109.10034v1
- Date: Tue, 21 Sep 2021 08:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 22:35:51.491512
- Title: Learning offline: memory replay in biological and artificial
reinforcement learning
- Title(参考訳): オフライン学習:生物・人工強化学習における記憶再生
- Authors: Emma L. Roscow, Raymond Chua, Rui Ponte Costa, Matt W. Jones, and
Nathan Lepora
- Abstract要約: 神経科学・AI分野におけるリプレイの機能的役割を概観する。
リプレイは生物学的ニューラルネットワークにおけるメモリ統合に重要である。
また、ディープニューラルネットワークにおける学習の安定化の鍵でもある。
- 参考スコア(独自算出の注目度): 1.0136215038345011
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learning to act in an environment to maximise rewards is among the brain's
key functions. This process has often been conceptualised within the framework
of reinforcement learning, which has also gained prominence in machine learning
and artificial intelligence (AI) as a way to optimise decision-making. A common
aspect of both biological and machine reinforcement learning is the
reactivation of previously experienced episodes, referred to as replay. Replay
is important for memory consolidation in biological neural networks, and is key
to stabilising learning in deep neural networks. Here, we review recent
developments concerning the functional roles of replay in the fields of
neuroscience and AI. Complementary progress suggests how replay might support
learning processes, including generalisation and continual learning, affording
opportunities to transfer knowledge across the two fields to advance the
understanding of biological and artificial learning and memory.
- Abstract(参考訳): 報酬を最大化するための環境での学習は、脳の重要な機能のひとつです。
このプロセスは強化学習の枠組みの中で概念化され、意思決定を最適化する方法として機械学習や人工知能(AI)でも注目されている。
生物と機械の強化学習の共通点は、リプレイと呼ばれる経験済みのエピソードの再活性化である。
リプレイは生物学的ニューラルネットワークにおけるメモリ統合にとって重要であり、ディープニューラルネットワークにおける学習の安定化の鍵である。
本稿では,神経科学とai分野におけるリプレイの機能的役割に関する最近の研究を概観する。
相補的な進歩は、リプレイが一般化や継続的な学習を含む学習プロセスをどのようにサポートするかを示し、生物学と人工知能の学習と記憶を理解するために2つの分野に知識を移す機会を与える。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Consciousness is learning: predictive processing systems that learn by
binding may perceive themselves as conscious [0.0]
予測処理システムは、単一事例からの認識と行動のためのワーキングメモリを形成することにより、新しい状況において柔軟に一般化できると主張している。
複数の生存戦略と再生戦略を同時に実施する複雑な行動方針の強化学習に知覚的価値予測を用いることで、脳がどのように進化したかを説明する。
「意識体験」とは、意識のメタ問題への解答として、そのような学習システムが自身の機能を知覚的に表す方法である。
論文 参考訳(メタデータ) (2023-01-17T17:06:48Z) - Continual learning benefits from multiple sleep mechanisms: NREM, REM,
and Synaptic Downscaling [51.316408685035526]
先行学習を失うことなく、新しいタスクやスキルを連続して学習することは、人工ニューラルネットワークと生物学的ニューラルネットワークの両方にとって、計算上の課題である。
本稿では,3つの異なる睡眠成分のモデル化が,人工ニューラルネットワークの連続学習にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2022-09-09T13:45:27Z) - Memory-enriched computation and learning in spiking neural networks
through Hebbian plasticity [9.453554184019108]
ヘビアン可塑性は生物学的記憶において重要な役割を担っていると考えられている。
本稿では,ヘビーンのシナプス可塑性に富む新しいスパイクニューラルネットワークアーキテクチャを提案する。
ヘビーンの豊かさは、ニューラルネットワークの計算能力と学習能力の点で驚くほど多彩であることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:48:37Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - Learning by Active Forgetting for Neural Networks [36.47528616276579]
記憶と忘れのメカニズムは、人間の学習記憶システムにおいて、同じコインの2つの側面である。
現代の機械学習システムは、記憶を良くすることで、生涯にわたる学習能力を持つ機械を育むために取り組んできた。
本稿では,ニューラルネットワークを用いた能動的記憶機構による学習モデルを提案する。
論文 参考訳(メタデータ) (2021-11-21T14:55:03Z) - Replay in Deep Learning: Current Approaches and Missing Biological
Elements [33.20770284464084]
リプレイは1つ以上の神経パターンの再活性化である。
記憶形成、検索、統合において重要な役割を果たしていると考えられている。
哺乳類の脳におけるリプレイと人工神経ネットワークにおけるリプレイの総合比較を行った。
論文 参考訳(メタデータ) (2021-04-01T15:19:08Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Continual Learning: Tackling Catastrophic Forgetting in Deep Neural
Networks with Replay Processes [0.0]
連続的なアルゴリズムは、忘れずに学習経験のカリキュラムで知識を蓄積し、改善するように設計されている。
生成的再生は、過去の学習経験を記憶するための生成モデルで再現する。
連続学習には非常に有望な手法であることを示す。
論文 参考訳(メタデータ) (2020-07-01T13:44:33Z) - A Developmental Neuro-Robotics Approach for Boosting the Recognition of
Handwritten Digits [91.3755431537592]
近年のエビデンスでは、子どもの体現戦略をシミュレーションすることで、マシンインテリジェンスも改善できることが示されている。
本稿では,発達神経ロボティクスの文脈における畳み込みニューラルネットワークモデルへの具体的戦略の適用について検討する。
論文 参考訳(メタデータ) (2020-03-23T14:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。