論文の概要: Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2103.04727v1
- Date: Mon, 8 Mar 2021 13:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:47:03.561196
- Title: Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習によるビジョンベースのモバイルロボティクス障害回避
- Authors: Patrick Wenzel, Torsten Sch\"on, Laura Leal-Taix\'e, Daniel Cremers
- Abstract要約: 障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
- 参考スコア(独自算出の注目度): 49.04274612323564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Obstacle avoidance is a fundamental and challenging problem for autonomous
navigation of mobile robots. In this paper, we consider the problem of obstacle
avoidance in simple 3D environments where the robot has to solely rely on a
single monocular camera. In particular, we are interested in solving this
problem without relying on localization, mapping, or planning techniques. Most
of the existing work consider obstacle avoidance as two separate problems,
namely obstacle detection, and control. Inspired by the recent advantages of
deep reinforcement learning in Atari games and understanding highly complex
situations in Go, we tackle the obstacle avoidance problem as a data-driven
end-to-end deep learning approach. Our approach takes raw images as input and
generates control commands as output. We show that discrete action spaces are
outperforming continuous control commands in terms of expected average reward
in maze-like environments. Furthermore, we show how to accelerate the learning
and increase the robustness of the policy by incorporating predicted depth maps
by a generative adversarial network.
- Abstract(参考訳): 障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
特に私たちは,ローカライズやマッピング,計画手法に頼ることなく,この問題を解決することに興味を持っています。
既存の作業の多くは障害物回避を障害検出と制御という2つの問題として捉えている。
Atariゲームにおける深層強化学習の最近の利点と、非常に複雑な状況の理解に触発されて、データ駆動のエンドツーエンドのディープラーニングアプローチとして障害回避問題に取り組みます。
本手法では生画像を入力とし,制御コマンドを出力として生成する。
離散的行動空間は迷路のような環境における平均報酬の期待値の点で連続的な制御命令を上回っていることを示した。
さらに,生成的逆ネットワークによる予測深度マップを組み込むことにより,学習を加速し,ポリシーの頑健性を高める方法を示す。
関連論文リスト
- Deep Reinforcement Learning-based Obstacle Avoidance for Robot Movement in Warehouse Environments [6.061908707850057]
本稿では,移動ロボット障害物回避アルゴリズムである倉庫環境に基づく深層強化学習を提案する。
深部強化学習アルゴリズムにおける値関数ネットワークの学習能力不足に対して、歩行者間の相互作用情報を歩行者角度グリッドを介して抽出する。
歩行者の空間行動に基づいて、強化学習の報酬関数を設計し、その角度が過度に変化する状態に対して、ロボットを罰する。
論文 参考訳(メタデータ) (2024-09-23T12:42:35Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Collision Avoidance and Navigation for a Quadrotor Swarm Using End-to-end Deep Reinforcement Learning [8.864432196281268]
本研究では,障害物のある環境下での四元子群制御のためのエンドツーエンドDRL手法を提案する。
筆者らは, 障害物の多い環境下での性能向上を図るために, 衝突エピソードのカリキュラムと再生バッファを提供する。
我々の研究は、エンドツーエンドDRLで訓練された隣人回避および障害物回避制御ポリシーを学習する可能性を示す最初の研究である。
論文 参考訳(メタデータ) (2023-09-23T06:56:28Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Safe reinforcement learning of dynamic high-dimensional robotic tasks:
navigation, manipulation, interaction [31.553783147007177]
強化学習では、損傷を起こさない環境を探索する上で、安全はより基本的なものである。
本稿では,各種ロボット作業の強化学習のための安全探索の新たな定式化について紹介する。
我々のアプローチは、幅広い種類のロボットプラットフォームに適用され、データから学んだ複雑な衝突制約の下でも安全を強制する。
論文 参考訳(メタデータ) (2022-09-27T11:23:49Z) - Distilling Motion Planner Augmented Policies into Visual Control
Policies for Robot Manipulation [26.47544415550067]
我々は,国家ベースのモーションプランナ拡張ポリシーを視覚制御ポリシーに蒸留することを提案する。
閉塞環境における3つの操作課題について評価を行った。
我々のフレームワークはサンプリング効率が高く、最先端のアルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2021-11-11T18:52:00Z) - Simultaneous Navigation and Construction Benchmarking Environments [73.0706832393065]
モバイル構築のためのインテリジェントなロボット、環境をナビゲートし、幾何学的設計に従ってその構造を変更するプロセスが必要です。
このタスクでは、ロボットのビジョンと学習の大きな課題は、GPSなしでデザインを正確に達成する方法です。
我々は,手工芸政策の性能を,基礎的なローカライゼーションと計画,最先端の深層強化学習手法を用いて評価した。
論文 参考訳(メタデータ) (2021-03-31T00:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。