論文の概要: MVP: Unified Motion and Visual Self-Supervised Learning for Large-Scale
Robotic Navigation
- arxiv url: http://arxiv.org/abs/2003.00667v1
- Date: Mon, 2 Mar 2020 05:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:58:26.094573
- Title: MVP: Unified Motion and Visual Self-Supervised Learning for Large-Scale
Robotic Navigation
- Title(参考訳): MVP:大規模ロボットナビゲーションのための統一運動と視覚的自己監督学習
- Authors: Marvin Chanc\'an, Michael Milford
- Abstract要約: 本稿では,大規模かつ目標駆動型ナビゲーションタスクのための新しい動き認識手法であるMVPを提案する。
我々のMVPベースの手法は、より速く学習でき、極端な環境変化とGPSデータの両方に対してより正確で堅牢です。
我々は,Oxford Robotcar と Nordland Railway の2つの大規模実世界のデータセットについて評価を行った。
- 参考スコア(独自算出の注目度): 23.54696982881734
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous navigation emerges from both motion and local visual perception in
real-world environments. However, most successful robotic motion estimation
methods (e.g. VO, SLAM, SfM) and vision systems (e.g. CNN, visual place
recognition-VPR) are often separately used for mapping and localization tasks.
Conversely, recent reinforcement learning (RL) based methods for visual
navigation rely on the quality of GPS data reception, which may not be reliable
when directly using it as ground truth across multiple, month-spaced traversals
in large environments. In this paper, we propose a novel motion and visual
perception approach, dubbed MVP, that unifies these two sensor modalities for
large-scale, target-driven navigation tasks. Our MVP-based method can learn
faster, and is more accurate and robust to both extreme environmental changes
and poor GPS data than corresponding vision-only navigation methods. MVP
temporally incorporates compact image representations, obtained using VPR, with
optimized motion estimation data, including but not limited to those from VO or
optimized radar odometry (RO), to efficiently learn self-supervised navigation
policies via RL. We evaluate our method on two large real-world datasets,
Oxford Robotcar and Nordland Railway, over a range of weather (e.g. overcast,
night, snow, sun, rain, clouds) and seasonal (e.g. winter, spring, fall,
summer) conditions using the new CityLearn framework; an interactive
environment for efficiently training navigation agents. Our experimental
results, on traversals of the Oxford RobotCar dataset with no GPS data, show
that MVP can achieve 53% and 93% navigation success rate using VO and RO,
respectively, compared to 7% for a vision-only method. We additionally report a
trade-off between the RL success rate and the motion estimation precision.
- Abstract(参考訳): 自律的なナビゲーションは、実環境における動きと局所的な視覚の両方から生まれる。
しかしながら、最も成功したロボットモーション推定手法(VO、SLAM、SfMなど)と視覚システム(CNN、視覚的位置認識-VPRなど)は、マッピングとローカライゼーションタスクに別々に使用されることが多い。
逆に、最近のビジュアルナビゲーションのための強化学習(RL)に基づく手法は、GPSデータ受信の品質に依存しており、大規模な環境において、複数の月空間のトラバーサルをまたいで直接真理として使用する場合、信頼性が低い可能性がある。
本稿では,大規模かつ目標駆動型ナビゲーションタスクにおいて,これらの2つのセンサモードを統一する,MVPと呼ばれる新しい動き認識手法を提案する。
MVPに基づく手法はより高速に学習でき、視覚のみのナビゲーション方法よりも、極端な環境変化とGPSデータの両方に対して正確で堅牢である。
MVPは、VPRを用いて得られたコンパクトな画像表現を時間的に組み込んでおり、VOや最適化レーダーオドメトリー(RO)のものに限らず、最適化された動き推定データを用いて、RLによる自己監督ナビゲーションポリシーを効率的に学習する。
オックスフォード・ロボカー・アンド・ノルドランド鉄道という2つの大規模な実世界のデータセットにおいて,新しいcitylearnフレームワークを用いて,天気(曇り,夜,雪,日光,雨,雲など)と季節(冬,春,秋,夏など)の条件について評価を行った。
実験の結果,GPSデータのないOxford RobotCarデータセットのトラバーサルでは,VOとROを用いてMVPが53%,93%のナビゲーション成功率を達成でき,視力のみの手法では7%であった。
さらに,rl成功率と動作推定精度とのトレードオフについて報告する。
関連論文リスト
- MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation [3.9974562667271507]
視覚計測(VO)は,室内環境におけるエンボディエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
近年の深層学習VO法は, 頑健な性能を示すが, トレーニング中のサンプル不効率に悩まされている。
エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて、ロバストでサンプル効率の良いVOパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-07T15:36:49Z) - More Than Routing: Joint GPS and Route Modeling for Refine Trajectory
Representation Learning [26.630640299709114]
本稿では,JGRMという自己監督技術に基づく共同GPSとルートモデリングを提案する。
我々は2つのエンコーダを開発し、それぞれルートとGPSの軌跡を表現できるように調整した。
2つのモードからの表現は、モーダル間情報相互作用のための共有変換器に入力される。
論文 参考訳(メタデータ) (2024-02-25T18:27:25Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment [14.363948775085534]
屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
GPS信号を使わずにPointGoalナビゲーションの精度を向上させるために、ビジュアル・オドメトリー(VO)を用い、教師なしで訓練された新しいアクション統合モジュール(AIM)を提案する。
実験により,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-10-02T03:12:03Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - The Surprising Effectiveness of Visual Odometry Techniques for Embodied
PointGoal Navigation [100.08270721713149]
PointGoalナビゲーションは、シミュレーションされたEmbodied AI環境で導入された。
最近の進歩は、ほぼ完璧な精度でPointGoalナビゲーションタスクを解く(99.6%の成功)
本研究では,ナビゲーションポリシにビジュアルオドメトリ技術を統合することで,人気の高いHabitat PointNavベンチマークの最先端性を大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2021-08-26T02:12:49Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - SDVTracker: Real-Time Multi-Sensor Association and Tracking for
Self-Driving Vehicles [11.317136648551537]
本稿では,関連性や状態推定に深層学習モデルを用いた,実用的で軽量なトラッキングシステムSDVTrackerを提案する。
本システムは,実世界の都市運転データセットにおいて,アクター100のシーンにおいて,CPU上で2.5ms未満で実行しながら,手作業による手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-03-09T23:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。