論文の概要: Intrinsic Motivation in Model-based Reinforcement Learning: A Brief
Review
- arxiv url: http://arxiv.org/abs/2301.10067v1
- Date: Tue, 24 Jan 2023 15:13:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 13:15:18.964608
- Title: Intrinsic Motivation in Model-based Reinforcement Learning: A Brief
Review
- Title(参考訳): モデルに基づく強化学習における本質的な動機づけ
- Authors: Artem Latyshev, Aleksandr I. Panov
- Abstract要約: 本稿では,エージェントが獲得した世界モデルに基づいて,本質的な動機付けを決定するための既存の手法について考察する。
提案した統合フレームワークは,学習を改善するために,世界モデルと本質的なモチベーションを用いてエージェントのアーキテクチャを記述する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The reinforcement learning research area contains a wide range of methods for
solving the problems of intelligent agent control. Despite the progress that
has been made, the task of creating a highly autonomous agent is still a
significant challenge. One potential solution to this problem is intrinsic
motivation, a concept derived from developmental psychology. This review
considers the existing methods for determining intrinsic motivation based on
the world model obtained by the agent. We propose a systematic approach to
current research in this field, which consists of three categories of methods,
distinguished by the way they utilize a world model in the agent's components:
complementary intrinsic reward, exploration policy, and intrinsically motivated
goals. The proposed unified framework describes the architecture of agents
using a world model and intrinsic motivation to improve learning. The potential
for developing new techniques in this area of research is also examined.
- Abstract(参考訳): 強化学習研究領域は、インテリジェントエージェント制御の問題を解決するための幅広い方法を含んでいる。
進歩にもかかわらず、高度に自律的なエージェントを作成する作業は依然として大きな課題である。
この問題の潜在的な解決策の1つは、発達心理学から派生した概念である本質的動機づけである。
本稿では,エージェントが獲得した世界モデルに基づいて本質的な動機付けを決定する既存の手法について考察する。
本研究は, エージェントの構成要素における世界モデルの利用方法, 補完的な内在的報酬, 探索政策, 内在的動機付け目標の3つのカテゴリから構成される, この分野における現在の研究への体系的アプローチを提案する。
提案する統一フレームワークは、世界モデルと学習を改善する本質的な動機を用いたエージェントのアーキテクチャを記述する。
この分野における新しい技術開発の可能性についても検討する。
関連論文リスト
- Learning to Steer Markovian Agents under Model Uncertainty [23.603487812521657]
我々は,希望する政策に向けて,マルチエージェントシステムに付加的な報酬を課す方法について検討する。
既存の作業の制限によって動機づけられた我々は、emphMarkovian agentと呼ばれる学習力学の新しいカテゴリーを考える。
我々は、エージェントの学習力学に関する本質的なモデルの不確実性を扱うために、歴史に依存した運営戦略を学習する。
論文 参考訳(メタデータ) (2024-07-14T14:01:38Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - A Survey of Reasoning with Foundation Models [235.7288855108172]
推論は、交渉、医療診断、刑事捜査など、様々な現実世界の環境において重要な役割を担っている。
本稿では,推論に適応する基礎モデルを提案する。
次に、基礎モデルにおける推論能力の出現の背後にある潜在的な将来方向を掘り下げる。
論文 参考訳(メタデータ) (2023-12-17T15:16:13Z) - Self-supervised network distillation: an effective approach to exploration in sparse reward environments [0.0]
強化学習は、事前に設計された報酬関数に従って、エージェントが環境の中で振る舞うように訓練することができる。
そのような問題の解決策は、エージェントに情報的な探索を提供する本質的な動機を与えることであるかもしれない。
本稿では, 蒸留誤差に基づく本質的な動機づけアルゴリズムである自己教師ネットワーク蒸留(SND)を新規性指標として提示する。
論文 参考訳(メタデータ) (2023-02-22T18:58:09Z) - Deep Reinforcement Learning for Multi-Agent Interaction [14.532965827043254]
自律エージェント研究グループは、自律システム制御のための新しい機械学習アルゴリズムを開発した。
本稿では,現在進行中の研究ポートフォリオの概要を概説するとともに,今後の課題について論じる。
論文 参考訳(メタデータ) (2022-08-02T21:55:56Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Learning with AMIGo: Adversarially Motivated Intrinsic Goals [63.680207855344875]
AMIGoは、Adversarially Motivated Intrinsic Goalsを提案するゴール生成教師である。
提案手法は, 提案する目標の自然なカリキュラムを生成し, エージェントが究極的には, 手続き的に生成する課題を解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:22:08Z) - A Survey of Reinforcement Learning Techniques: Strategies, Recent
Development, and Future Directions [0.0]
強化学習は任意の環境で行動を取るシステムに影響を与える。
本稿では,課題,最近の最先端技術の発展,今後の方向性など,さまざまな側面に焦点をあてる。
論文 参考訳(メタデータ) (2020-01-19T23:51:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。