論文の概要: Active Reinforcement Learning -- A Roadmap Towards Curious Classifier
Systems for Self-Adaptation
- arxiv url: http://arxiv.org/abs/2201.03947v1
- Date: Tue, 11 Jan 2022 13:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 16:51:57.101070
- Title: Active Reinforcement Learning -- A Roadmap Towards Curious Classifier
Systems for Self-Adaptation
- Title(参考訳): アクティブ強化学習--興味ある自己適応のための分類システムへのロードマップ
- Authors: Simon Reichhuber, Sven Tomforde
- Abstract要約: 知的システムにおける「能動的強化学習」についての研究課題を策定することを目的とする。
従来のアプローチでは、学習問題を分離し、さまざまな分野の機械学習からテクニックを分離的に利用している。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intelligent systems have the ability to improve their behaviour over time
taking observations, experiences or explicit feedback into account. Traditional
approaches separate the learning problem and make isolated use of techniques
from different field of machine learning such as reinforcement learning, active
learning, anomaly detection or transfer learning, for instance. In this
context, the fundamental reinforcement learning approaches come with several
drawbacks that hinder their application to real-world systems: trial-and-error,
purely reactive behaviour or isolated problem handling. The idea of this
article is to present a concept for alleviating these drawbacks by setting up a
research agenda towards what we call "active reinforcement learning" in
intelligent systems.
- Abstract(参考訳): インテリジェントなシステムには、観察や経験、明示的なフィードバックを考慮して、時間とともに行動を改善する能力がある。
従来のアプローチでは、学習問題を分離し、強化学習、アクティブ学習、異常検出、転送学習など、さまざまな分野の機械学習から分離したテクニックを使用する。
このような状況下では、基本的な強化学習アプローチには、試行錯誤、純粋なリアクティブな振る舞い、分離された問題処理といった、現実のシステムへの応用を妨げるいくつかの欠点がある。
本稿では,知的システムにおける「能動的強化学習」という研究課題を立案し,これらの欠点を軽減するための概念を提案する。
関連論文リスト
- Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Reinforcement Learning in System Identification [0.0]
システム識別は、学習前方モデル、伝達関数、システムダイナミクスなどとも呼ばれるが、科学と工学の両方において長い伝統がある。
ここでは、この問題における強化学習の利用について考察する。
本稿では,この問題が強化学習問題として自然と音にどのように適合するかを詳述し,RLがこのような問題を解決する上で有望な手法であることを実証する実験結果を示す。
論文 参考訳(メタデータ) (2022-12-14T09:20:42Z) - Towards Improving Exploration in Self-Imitation Learning using Intrinsic
Motivation [7.489793155793319]
強化学習(Reinforcement Learning)は、最適化タスクを効率的に解くための強力な代替手段として登場した。
これらのアルゴリズムの使用は、学習したエージェントが行う決定がどれほど良い(または悪い)かを知らせる環境の提供するフィードバック信号に大きく依存する。
この研究では、本質的な動機付けは、エージェントが好奇心に基づいて環境を探索することを奨励するのに対して、模倣学習は学習プロセスを加速するために最も有望な経験を繰り返すことができる。
論文 参考訳(メタデータ) (2022-11-30T09:18:59Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Understand and Improve Contrastive Learning Methods for Visual
Representation: A Review [1.4650545418986058]
手動ラベリングなしで効果的なデータ表現を学習できる可能性から、有望な自己教師型学習が人気を集めている。
本文献レビューは, 自己指導型学習の鍵となる構成要素と限界を理解するための研究者の取り組みについて, 最新の分析を行うことを目的としている。
論文 参考訳(メタデータ) (2021-06-06T21:59:49Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Augmented Q Imitation Learning (AQIL) [20.909770125018564]
模倣学習では、機械はエキスパートシステムの振舞いを模倣して学習するが、強化学習では直接的な環境フィードバックを通じて学習する。
本稿では,強化学習の収束を加速する手法であるAugmented Q-Imitation-Learningを提案する。
論文 参考訳(メタデータ) (2020-03-31T18:08:23Z) - Some Insights into Lifelong Reinforcement Learning Systems [6.819322942771288]
生涯強化学習システムは、生涯にわたって環境との追従的相互作用を通じて学習する能力を持つ学習システムである。
生涯強化学習に関するいくつかの知見と、簡易な生涯強化学習システムを提供する。
論文 参考訳(メタデータ) (2020-01-27T07:26:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。