論文の概要: MIRACLE: Inverse Reinforcement and Curriculum Learning Model for
Human-inspired Mobile Robot Navigation
- arxiv url: http://arxiv.org/abs/2312.03651v2
- Date: Thu, 7 Dec 2023 02:26:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 11:24:08.565661
- Title: MIRACLE: Inverse Reinforcement and Curriculum Learning Model for
Human-inspired Mobile Robot Navigation
- Title(参考訳): MIRACLE:人間に触発された移動ロボットナビゲーションのための逆強化とカリキュラム学習モデル
- Authors: Nihal Gunukula, Kshitij Tiwari, Aniket Bera
- Abstract要約: 緊急のシナリオでは、移動ロボットは人間のようにナビゲートし、最初の応答者と干渉することなく、潜在的な犠牲者を素早く見つけ出す刺激を解釈しなければならない。
我々は、ゲーミフィケーション学習を用いて刺激駆動型人間のナビゲーションデータを収集するソリューション、MIRACLEを提案する。
このデータは、Deep Inverseの最大エントロピー強化学習モデルをトレーニングするために使用され、実証者の能力への依存を減らす。
- 参考スコア(独自算出の注目度): 13.824617183645291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In emergency scenarios, mobile robots must navigate like humans, interpreting
stimuli to locate potential victims rapidly without interfering with first
responders. Existing socially-aware navigation algorithms face computational
and adaptability challenges. To overcome these, we propose a solution, MIRACLE
-- an inverse reinforcement and curriculum learning model, that employs
gamified learning to gather stimuli-driven human navigational data. This data
is then used to train a Deep Inverse Maximum Entropy Reinforcement Learning
model, reducing reliance on demonstrator abilities. Testing reveals a low loss
of 2.7717 within a 400-sized environment, signifying human-like response
replication. Current databases lack comprehensive stimuli-driven data,
necessitating our approach. By doing so, we enable robots to navigate emergency
situations with human-like perception, enhancing their life-saving
capabilities.
- Abstract(参考訳): 緊急時、移動ロボットは人間のように移動し、最初の応答者と干渉することなく、潜在的な犠牲者を素早く見つけるために刺激を解釈しなければならない。
既存のソーシャルアウェアナビゲーションアルゴリズムは、計算と適応性の課題に直面している。
そこで本研究では,ゲーミフィケーション学習を用いて刺激駆動型ナビゲーションデータを集める逆強化学習モデルであるMIRACLEを提案する。
このデータは、逆最大エントロピー強化学習モデルのトレーニングに使用され、デモストラクタ能力への依存を減らす。
テストでは400サイズの環境で2.7717の損失が低く、人間のような反応の複製を示す。
現在のデータベースには包括的な刺激駆動データがなく、アプローチを必要としています。
そうすることで、ロボットは人間のような感覚で緊急事態をナビゲートし、救命能力を高めることができる。
関連論文リスト
- Autonomous Robotic Reinforcement Learning with Asynchronous Human
Feedback [27.223725464754853]
GEARは、ロボットを現実世界の環境に配置し、中断することなく自律的に訓練することを可能にする。
システムはリモート、クラウドソース、非専門家からの非同期フィードバックのみを必要とする、Webインターフェースにロボットエクスペリエンスをストリームする。
論文 参考訳(メタデータ) (2023-10-31T16:43:56Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning [28.045441768064215]
強化学習アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示している。
本研究では,実演データを使わずにRLエージェントを訓練する作業を検討する。
密集層における最適なナビゲーションポリシーを効率的に学習するために,後視体験リプレイ(HER)とカリキュラム学習(CL)技術をRLに組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-09T13:18:11Z) - Robot Navigation in a Crowd by Integrating Deep Reinforcement Learning
and Online Planning [8.211771115758381]
これは、群衆の中で時間効率と衝突のない道を移動するモバイルロボットにとって、まだオープンで挑戦的な問題です。
深層強化学習はこの問題に対する有望な解決策である。
グラフに基づく深部強化学習手法SG-DQNを提案する。
私たちのモデルは、ロボットが群衆をよりよく理解し、群衆ナビゲーションタスクで0.99以上の高い成功率を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-02-26T02:17:13Z) - Human-guided Robot Behavior Learning: A GAN-assisted Preference-based
Reinforcement Learning Approach [2.9764834057085716]
本稿では,新しいGAN支援人間嗜好に基づく強化学習手法を提案する。
GAN(Generative Adversarial Network)を使用して、人間の嗜好を積極的に学習し、選好を割り当てる際の人間の役割を置き換える。
本手法は, 性能犠牲を伴わずに, 約99.8%の人的時間を短縮することができる。
論文 参考訳(メタデータ) (2020-10-15T01:44:06Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。