論文の概要: Prioritized Experience-based Reinforcement Learning with Human Guidance:
Methdology and Application to Autonomous Driving
- arxiv url: http://arxiv.org/abs/2109.12516v1
- Date: Sun, 26 Sep 2021 07:19:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:12:13.867498
- Title: Prioritized Experience-based Reinforcement Learning with Human Guidance:
Methdology and Application to Autonomous Driving
- Title(参考訳): 人間の指導による優先経験に基づく強化学習 : メソロジーと自律運転への応用
- Authors: Jingda Wu, Zhiyu Huang, Wenhui Huang, Chen Lv
- Abstract要約: 強化学習は、最適化と制御問題を解決するために、巧妙な定義と卓越した計算努力を必要とする。
本稿では,人間指導に基づく総合的な強化学習フレームワークを構築した。
強化学習アルゴリズムの効率性と性能を高めるために,人間の指導に適応する新たな優先体験再生機構を提案する。
- 参考スコア(独自算出の注目度): 2.5895890901896124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning requires skillful definition and remarkable
computational efforts to solve optimization and control problems, which could
impair its prospect. Introducing human guidance into reinforcement learning is
a promising way to improve learning performance. In this paper, a comprehensive
human guidance-based reinforcement learning framework is established. A novel
prioritized experience replay mechanism that adapts to human guidance in the
reinforcement learning process is proposed to boost the efficiency and
performance of the reinforcement learning algorithm. To relieve the heavy
workload on human participants, a behavior model is established based on an
incremental online learning method to mimic human actions. We design two
challenging autonomous driving tasks for evaluating the proposed algorithm.
Experiments are conducted to access the training and testing performance and
learning mechanism of the proposed algorithm. Comparative results against the
state-of-the-arts suggest the advantages of our algorithm in terms of learning
efficiency, performance, and robustness.
- Abstract(参考訳): 強化学習には、最適化と制御の問題を解決するための巧妙な定義と卓越した計算努力が必要である。
強化学習に人間の指導を導入することは、学習性能を改善する有望な方法である。
本稿では,人間指導に基づく強化学習フレームワークを総合的に構築する。
強化学習アルゴリズムの効率性と性能を高めるために,強化学習プロセスにおいて人間の指導に適応する新たな優先体験再生機構を提案する。
人間の作業負荷を軽減するため,人間の行動を模倣するインクリメンタルオンライン学習法に基づいて行動モデルを構築した。
我々は提案アルゴリズムを評価するために2つの挑戦的な自律運転タスクを設計する。
提案アルゴリズムのトレーニングおよびテスト性能および学習機構にアクセスするための実験を行った。
最新技術との比較結果は,学習効率,性能,ロバスト性の観点から,アルゴリズムの利点を示唆する。
関連論文リスト
- Unveiling the Role of Expert Guidance: A Comparative Analysis of User-centered Imitation Learning and Traditional Reinforcement Learning [0.0]
本研究では,従来の強化学習法と比較して,模倣学習の性能,堅牢性,限界について検討する。
この研究から得られた洞察は、人間中心の人工知能の進歩に寄与する。
論文 参考訳(メタデータ) (2024-10-28T18:07:44Z) - GUIDE: Real-Time Human-Shaped Agents [4.676987516944155]
リアルタイム強化学習のためのGUIDEを紹介した。
人間のフィードバックが10分しかなく、我々のアルゴリズムはRLベースラインと比較して最大30%の成功率を達成できる。
論文 参考訳(メタデータ) (2024-10-19T18:59:39Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Behavior-based Neuroevolutionary Training in Reinforcement Learning [3.686320043830301]
本稿では,神経進化的最適化と価値に基づく強化学習を組み合わせたハイブリッドアルゴリズムを提案する。
この目的のために,エージェントポリシーの生成と最適化のための異なる手法を統合し,多様な集団を創出する。
その結果, 進化的手法のサンプル効率と学習速度を向上できることがわかった。
論文 参考訳(メタデータ) (2021-05-17T15:40:42Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Active Hierarchical Imitation and Reinforcement Learning [0.0]
本研究では,我々が開発した階層的模倣強化学習フレームワークを用いて,様々な模倣学習アルゴリズムを探索し,アクティブ学習アルゴリズムを設計した。
実験の結果,daggerと報酬ベースのアクティブラーニング手法は,トレーニング過程において身体的および精神的により多くの努力を省きながら,よりよいパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-14T08:27:27Z) - Emergent Real-World Robotic Skills via Unsupervised Off-Policy
Reinforcement Learning [81.12201426668894]
報奨関数を使わずに多様なスキルを習得し,これらのスキルを下流のタスクに再利用する効率的な強化学習手法を開発した。
提案アルゴリズムは学習効率を大幅に向上させ,報酬のない実世界のトレーニングを実現する。
また,学習スキルは,目標指向ナビゲーションのためのモデル予測制御を用いて,追加のトレーニングを伴わずに構成可能であることも実証した。
論文 参考訳(メタデータ) (2020-04-27T17:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。