論文の概要: Deep Reinforcement Learning and its Neuroscientific Implications
- arxiv url: http://arxiv.org/abs/2007.03750v1
- Date: Tue, 7 Jul 2020 19:27:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 19:05:34.618795
- Title: Deep Reinforcement Learning and its Neuroscientific Implications
- Title(参考訳): 深層強化学習とその神経科学的意義
- Authors: Matthew Botvinick, Jane X. Wang, Will Dabney, Kevin J. Miller, Zeb
Kurth-Nelson
- Abstract要約: 強力な人工知能の出現は、神経科学の新しい研究方向を定義している。
深層強化学習(Deep RL)は、学習、表現、意思決定の間の相互作用を研究するための枠組みを提供する。
Deep RLは、新しい研究ツールセットと、幅広い新しい仮説を提供する。
- 参考スコア(独自算出の注目度): 19.478332877763417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of powerful artificial intelligence is defining new research
directions in neuroscience. To date, this research has focused largely on deep
neural networks trained using supervised learning, in tasks such as image
classification. However, there is another area of recent AI work which has so
far received less attention from neuroscientists, but which may have profound
neuroscientific implications: deep reinforcement learning. Deep RL offers a
comprehensive framework for studying the interplay among learning,
representation and decision-making, offering to the brain sciences a new set of
research tools and a wide range of novel hypotheses. In the present review, we
provide a high-level introduction to deep RL, discuss some of its initial
applications to neuroscience, and survey its wider implications for research on
brain and behavior, concluding with a list of opportunities for next-stage
research.
- Abstract(参考訳): 強力な人工知能の出現は神経科学の新しい研究方向を定義している。
この研究は、画像分類などのタスクにおいて、教師付き学習を用いて訓練されたディープニューラルネットワークに主に焦点を当てている。
しかし、近年のAI研究の分野は、神経科学者からはあまり注目されていないが、深い強化学習という、深い神経科学的意味を持つかもしれない。
Deep RLは、学習、表現、意思決定の間の相互作用を研究するための包括的なフレームワークを提供し、脳科学に新しい研究ツールと幅広い新しい仮説を提供する。
本稿では,deep rlの高レベルな紹介を行い,その初期応用を神経科学に論じ,脳と行動の研究に広く影響し,次の段階研究の機会の一覧をまとめる。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Towards Data-and Knowledge-Driven Artificial Intelligence: A Survey on Neuro-Symbolic Computing [73.0977635031713]
ニューラルシンボリック・コンピューティング(NeSy)は、人工知能(AI)の活発な研究領域である。
NeSyは、ニューラルネットワークにおける記号表現の推論と解釈可能性の利点と堅牢な学習の整合性を示す。
論文 参考訳(メタデータ) (2022-10-28T04:38:10Z) - Neuro-Nav: A Library for Neurally-Plausible Reinforcement Learning [2.060642030400714]
神経可塑性強化学習のためのオープンソースライブラリNeuro-Navを提案する。
Neuro-Navは、標準環境とRLアルゴリズムのセットを提供する。
このツールキットは認知科学とRL文学の両方にわたる多くの研究から、関連する知見を再現することを示した。
論文 参考訳(メタデータ) (2022-06-06T16:33:36Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - CCN GAC Workshop: Issues with learning in biological recurrent neural
networks [11.725061054663872]
この視点は、2020年にCCN(Computational Cognitive Neuroscience)カンファレンスが主催するGAC(Generative Adversarial Collaboration)シリーズのワークショップを通じて実現しました。
生物学的学習に関する一般的な仮定と実験神経科学からの対応する発見について簡単にレビューします。
ワークショップでは、シナプス可塑性、ニューラルサーキット、理論-実験分割、目的関数といった重要な課題について概説する。
論文 参考訳(メタデータ) (2021-05-12T00:59:40Z) - Probing artificial neural networks: insights from neuroscience [6.7832320606111125]
神経科学は、近年の多くの研究を通じて、このようなモデルの使用法を開拓してきた。
我々は、調査を設計する際には、特定の研究目標が最重要の役割を担い、これらの目標を明示するために将来の探究研究を奨励する。
論文 参考訳(メタデータ) (2021-04-16T16:13:23Z) - Reinforcement Learning and its Connections with Neuroscience and
Psychology [0.0]
我々は,脳内の学習と意思決定をモデル化するための候補として,強化学習が有望な候補であることを示す神経科学と心理学の両方の知見をレビューした。
次に、このRLと神経科学と心理学の関係と、AIと脳科学の両方の研究の進展における役割について論じる。
論文 参考訳(メタデータ) (2020-06-25T04:29:15Z) - On Interpretability of Artificial Neural Networks: A Survey [21.905647127437685]
我々は、ニューラルネットワークのメカニズムを理解するための最近の研究を体系的にレビューし、特に医学における解釈可能性の応用について述べる。
本稿では,ファジィ論理や脳科学などの解釈可能性研究の今後の方向性について論じる。
論文 参考訳(メタデータ) (2020-01-08T13:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。