論文の概要: Curiosity-Driven Reinforcement Learning based Low-Level Flight Control
- arxiv url: http://arxiv.org/abs/2307.15724v1
- Date: Fri, 28 Jul 2023 11:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:46:06.348665
- Title: Curiosity-Driven Reinforcement Learning based Low-Level Flight Control
- Title(参考訳): キュリオシティ駆動強化学習による低レベル飛行制御
- Authors: Amir Ramezani Dooraki and Alexandros Iosifidis
- Abstract要約: 本研究では,オドメトリデータから適切な運動速度を生成することにより,自律学習のための好奇心の駆動に基づくアルゴリズムを提案する。
探索パターンの進化における好奇心の効果を可視化したアルゴリズムとアルゴリズムを用いて、オン・ポリティ、オフ・ポリティ、オン・ポリティ、オン・ポリティと好奇心を用いたテストを実行した。
- 参考スコア(独自算出の注目度): 95.42181254494287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Curiosity is one of the main motives in many of the natural creatures with
measurable levels of intelligence for exploration and, as a result, more
efficient learning. It makes it possible for humans and many animals to explore
efficiently by searching for being in states that make them surprised with the
goal of learning more about what they do not know. As a result, while being
curious, they learn better. In the machine learning literature, curiosity is
mostly combined with reinforcement learning-based algorithms as an intrinsic
reward. This work proposes an algorithm based on the drive of curiosity for
autonomous learning to control by generating proper motor speeds from odometry
data. The quadcopter controlled by our proposed algorithm can pass through
obstacles while controlling the Yaw direction of the quad-copter toward the
desired location. To achieve that, we also propose a new curiosity approach
based on prediction error. We ran tests using on-policy, off-policy, on-policy
plus curiosity, and the proposed algorithm and visualized the effect of
curiosity in evolving exploration patterns. Results show the capability of the
proposed algorithm to learn optimal policy and maximize reward where other
algorithms fail to do so.
- Abstract(参考訳): 好奇心は、探索のための測定可能なレベルの知能を持ち、その結果、より効率的な学習を持つ多くの自然生物の主要な動機の1つである。
これにより、人間や多くの動物は、自分が知らないことをもっと学ぶという目標で驚かされる状態にあることを探索することで、効率的に探索することができる。
その結果、好奇心をそそる一方で、よりよい学習が得られます。
機械学習の文献では、好奇心は主に本質的な報酬として強化学習に基づくアルゴリズムと組み合わせられている。
本研究では,オドメトリデータから適切な運動速度を生成することにより,自律学習のための好奇心の駆動に基づくアルゴリズムを提案する。
提案アルゴリズムにより制御されたクワッドコプターは,クワッドコプターのYaw方向を所望の位置に制御しながら障害物を通過させることができる。
そこで本研究では,予測誤差に基づく新たな好奇心アプローチを提案する。
私たちは、オン・ポリシー、オフ・ポリシー、オン・ポリシー、キュリオシティ、そして提案されたアルゴリズムを使ってテストを行い、キュリオシティが進化する探索パターンに与える影響を可視化しました。
その結果,提案アルゴリズムが最適方針を学習し,他のアルゴリズムがそうしなかった場合の報酬を最大化する能力を示す。
関連論文リスト
- Reward Finetuning for Faster and More Accurate Unsupervised Object
Discovery [64.41455104593304]
Reinforcement Learning from Human Feedback (RLHF)は、機械学習モデルを改善し、それを人間の好みに合わせる。
本稿では,RL法と類似した手法を非教師対象発見に適用することを提案する。
私たちは、我々のアプローチがより正確であるだけでなく、訓練よりも桁違いに高速であることを示した。
論文 参考訳(メタデータ) (2023-10-29T17:03:12Z) - Reinforcement Learning Algorithms: An Overview and Classification [0.0]
本研究では,3種類の環境タイプを特定し,それらの環境タイプに応じて強化学習アルゴリズムを分類する。
各アルゴリズムの概要は、アルゴリズムの基礎についての洞察を与え、アルゴリズム間の類似点と相違点をレビューする。
論文 参考訳(メタデータ) (2022-09-29T16:58:42Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - Open-World Active Learning with Stacking Ensemble for Self-Driving Cars [0.0]
本稿では,車の前に現れる可能性のあるすべての既知のエンティティを識別するだけでなく,未知のオブジェクトのクラスを検出して学習するアルゴリズムを提案する。
我々のアプローチはDOCアルゴリズムとQuery-by-Committeeアルゴリズムに依存している。
論文 参考訳(メタデータ) (2021-09-10T19:06:37Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Meta-learning curiosity algorithms [26.186627089223624]
我々はメタラーニングの1つとして好奇行動を生成する問題を定式化する。
私たちのリッチなプログラム言語は、ニューラルネットワークとバッファ、最も近いモジュール、カスタムロス関数といった他のビルディングブロックを結合します。
画像入力,アクロボット,月面着陸機,アリ,ホッパーを備えたグリッドナビゲーションと異なる領域において,人間の設計したキュリオシティアルゴリズムと同等以上の性能を持つ2つの新しいキュリオシティアルゴリズムが発見された。
論文 参考訳(メタデータ) (2020-03-11T14:25:43Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。