論文の概要: Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2006.08967v1
- Date: Tue, 16 Jun 2020 07:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:31:13.777706
- Title: Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning
- Title(参考訳): 自己教師付き学習による複雑なナビゲーション行動を可能にするロボット知覚
- Authors: Marvin Chanc\'an and Michael Milford
- Abstract要約: 本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
- 参考スコア(独自算出の注目度): 23.54696982881734
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning visuomotor control policies in robotic systems is a fundamental
problem when aiming for long-term behavioral autonomy. Recent
supervised-learning-based vision and motion perception systems, however, are
often separately built with limited capabilities, while being restricted to few
behavioral skills such as passive visual odometry (VO) or mobile robot visual
localization. Here we propose an approach to unify those successful robot
perception systems for active target-driven navigation tasks via reinforcement
learning (RL). Our method temporally incorporates compact motion and visual
perception data - directly obtained using self-supervision from a single image
sequence - to enable complex goal-oriented navigation skills. We demonstrate
our approach on two real-world driving dataset, KITTI and Oxford RobotCar,
using the new interactive CityLearn framework. The results show that our method
can accurately generalize to extreme environmental changes such as day to night
cycles with up to an 80% success rate, compared to 30% for a vision-only
navigation systems.
- Abstract(参考訳): ロボットシステムにおけるビジュモータ制御の学習は,長期的自律性を目指す上での基本的な問題である。
しかし、近年の教師あり学習に基づく視覚・運動認識システムは、限られた能力で別々に構築されることが多いが、受動視覚計測(VO)や移動ロボットの視覚的ローカライゼーションのような少数の行動スキルに制限されている。
本稿では,これらのロボット認識システムを,強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクに統一するアプローチを提案する。
本手法は,1つの画像列から直接自己スーパービジョンを用いて得られるコンパクトな動きと視覚知覚データを時間的に組み込んで,複雑な目標指向ナビゲーションスキルを実現する。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
その結果、視覚のみのナビゲーションシステムでは30%に対して、昼から夜のサイクルのような極端な環境変化を80%の成功率で正確に一般化できることがわかった。
関連論文リスト
- A Study on Learning Social Robot Navigation with Multimodal Perception [6.052803245103173]
本稿では,大規模実世界のデータセットを用いたマルチモーダル認識を用いた社会ロボットナビゲーションの学習について述べる。
我々は,一助学習と多モーダル学習のアプローチを,異なる社会シナリオにおける古典的なナビゲーション手法のセットと比較する。
その結果、マルチモーダル学習は、データセットと人的学習の両方において、一助学習よりも明らかな優位性を持つことが示された。
論文 参考訳(メタデータ) (2023-09-22T01:47:47Z) - Real-time Vision-based Navigation for a Robot in an Indoor Environment [0.0]
このシステムは、視覚に基づく技術と高度な経路計画アルゴリズムを利用して、障害物を避けながらロボットが目的地に向かって移動できるようにする。
この知見は、屋内ロボットナビゲーションの進歩に寄与し、リアルタイムで自律的なナビゲーションのための視覚ベースの技術の可能性を示している。
論文 参考訳(メタデータ) (2023-07-02T21:01:56Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Learning Perception-Aware Agile Flight in Cluttered Environments [38.59659342532348]
乱雑な環境下での知覚に敏感で最小時間飛行を実現するニューラルネットワークポリシーを学習する手法を提案する。
提案手法は認識と制御を密に結合し,計算速度(10倍高速)と成功率に有意な優位性を示す。
本研究では, クローズドループ制御性能を最大50km/hの速さで実機とハードウェア・イン・ザ・ループシミュレーションを用いて実証する。
論文 参考訳(メタデータ) (2022-10-04T18:18:58Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。