論文の概要: Abstraction for Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2202.05839v1
- Date: Thu, 10 Feb 2022 23:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 09:10:44.474610
- Title: Abstraction for Deep Reinforcement Learning
- Title(参考訳): 深層強化学習のための抽象化
- Authors: Murray Shanahan and Melanie Mitchell
- Abstract要約: 我々は、深層強化学習の文脈で抽象的な問題を特徴づける。
類似推論や連想記憶への様々な確立されたアプローチがこの問題に対処する可能性がある。
しかし、エンド・ツー・エンドの差別化が要求されるため、難しい問題が発生します。
- 参考スコア(独自算出の注目度): 7.005266019853958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We characterise the problem of abstraction in the context of deep
reinforcement learning. Various well established approaches to analogical
reasoning and associative memory might be brought to bear on this issue, but
they present difficulties because of the need for end-to-end differentiability.
We review developments in AI and machine learning that could facilitate their
adoption.
- Abstract(参考訳): 我々は、深層強化学習の文脈で抽象的な問題を特徴づける。
類似の推論と連想記憶に対する様々な確立されたアプローチがこの問題に当てはまるかもしれないが、それらはエンドツーエンドの微分可能性の必要性から困難を呈している。
採用を促進するAIと機械学習の開発についてレビューする。
関連論文リスト
- BloomWise: Enhancing Problem-Solving capabilities of Large Language Models using Bloom's-Taxonomy-Inspired Prompts [59.83547898874152]
我々は,Bloomの分類にインスパイアされた新しいプロンプト技術であるBloomWiseを導入し,Large Language Models(LLMs)の性能を向上させる。
より洗練された認知スキルを身につける必要性に関する決定は、LLMによる自己評価に基づいている。
4つの一般的な算数推論データセットの広範な実験において,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-05T09:27:52Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - In-Context Analogical Reasoning with Pre-Trained Language Models [10.344428417489237]
我々は、AIシステムにおけるアナロジーを支援するために、直感的な言語ベースの抽象化の使用について検討する。
具体的には,大規模事前学習言語モデル(PLM)を視覚的Raven's Progressive Matrices(RPM)に適用する。
PLMはゼロショットリレーショナル推論に顕著な能力を示し、人間のパフォーマンスを超え、教師付き視覚ベースの手法に近づいた。
論文 参考訳(メタデータ) (2023-05-28T04:22:26Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Challenges for cognitive decoding using deep learning methods [0.7476901945542384]
認知的復号法では、研究者は脳の領域の表現を、その領域の活動から識別できる認知状態を特定することによって特徴づけることを目指している。
ディープラーニング(DL)手法は、複雑なデータの汎用的な表現を学習する未整合能力とともに、認知的復号化に非常に有望である。
本稿では,近年の人工知能と伝達学習の進歩を活用して,これらの課題に対処することを提案する。
論文 参考訳(メタデータ) (2021-08-16T05:01:14Z) - Abstraction and Analogy-Making in Artificial Intelligence [0.0]
現在のAIシステムは、人間のような抽象化やアナロジーを形成する能力に近づきません。
本稿では,記号的手法,深層学習,確率的プログラム誘導など,この目標に対するいくつかのアプローチの利点と限界についてレビューする。
論文 参考訳(メタデータ) (2021-02-22T00:12:48Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Analysis of Social Robotic Navigation approaches: CNN Encoder and
Incremental Learning as an alternative to Deep Reinforcement Learning [1.244705780038575]
学習ループに人間を持つことは、最先端の機械学習アルゴリズムと互換性がない。
本研究では,ソーシャルナビゲーションタスクのための適応畳み込みエンコーダに関する以前の研究を分析し,この問題と解決の可能性について論じる。
論文 参考訳(メタデータ) (2020-08-18T14:54:24Z) - Incidental Supervision: Moving beyond Supervised Learning [72.4859717204905]
本稿では、監視ボトルネックを軽減するために設計された学習パラダイムについて述べる。
それは、テキストから様々なレベルの意味表現を誘導することに関連する、複数の問題の文脈におけるそれらの利点を説明する。
論文 参考訳(メタデータ) (2020-05-25T18:44:53Z) - Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems [108.81683598693539]
オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
論文 参考訳(メタデータ) (2020-05-04T17:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。