論文の概要: MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation
- arxiv url: http://arxiv.org/abs/2411.04796v1
- Date: Thu, 07 Nov 2024 15:36:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:39:28.469781
- Title: MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation
- Title(参考訳): MPVO:ポイントゴールナビゲーションのためのモーションPriorベースのビジュアルオドメトリー
- Authors: Sayan Paul, Ruddra dev Roychoudhury, Brojeshwar Bhowmick,
- Abstract要約: 視覚計測(VO)は,室内環境におけるエンボディエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
近年の深層学習VO法は, 頑健な性能を示すが, トレーニング中のサンプル不効率に悩まされている。
エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて、ロバストでサンプル効率の良いVOパイプラインを提案する。
- 参考スコア(独自算出の注目度): 3.9974562667271507
- License:
- Abstract: Visual odometry (VO) is essential for enabling accurate point-goal navigation of embodied agents in indoor environments where GPS and compass sensors are unreliable and inaccurate. However, traditional VO methods face challenges in wide-baseline scenarios, where fast robot motions and low frames per second (FPS) during inference hinder their performance, leading to drift and catastrophic failures in point-goal navigation. Recent deep-learned VO methods show robust performance but suffer from sample inefficiency during training; hence, they require huge datasets and compute resources. So, we propose a robust and sample-efficient VO pipeline based on motion priors available while an agent is navigating an environment. It consists of a training-free action-prior based geometric VO module that estimates a coarse relative pose which is further consumed as a motion prior by a deep-learned VO model, which finally produces a fine relative pose to be used by the navigation policy. This strategy helps our pipeline achieve up to 2x sample efficiency during training and demonstrates superior accuracy and robustness in point-goal navigation tasks compared to state-of-the-art VO method(s). Realistic indoor environments of the Gibson dataset is used in the AI-Habitat simulator to evaluate the proposed approach using navigation metrics (like success/SPL) and pose metrics (like RPE/ATE). We hope this method further opens a direction of work where motion priors from various sources can be utilized to improve VO estimates and achieve better results in embodied navigation tasks.
- Abstract(参考訳): 視覚計測(VO)は,GPSとコンパスセンサが信頼性が低く,不正確な屋内環境において,エンボダイドエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
しかし、従来のVO手法は、高速なロボットの動きと、推論中の低フレーム(FPS)がパフォーマンスを阻害し、ポイントゴールナビゲーションにおけるドリフトと破滅的な失敗に繋がる、幅広いベースラインシナリオで課題に直面している。
最近のディープラーニングVO手法は、堅牢なパフォーマンスを示すが、トレーニング中にサンプルの非効率に悩まされるため、巨大なデータセットと計算リソースが必要になる。
そこで本研究では,エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて,頑健でサンプル効率の良いVOパイプラインを提案する。
トレーニング不要なアクションプライアベースの幾何VOモジュールで構成されており、これはより粗い相対的なポーズを、深い学習型VOモデルによって先行して消費される動きとして推定し、最終的にナビゲーションポリシーで使用される微細な相対的なポーズを生成する。
この戦略は、トレーニング中に最大2倍のサンプル効率を達成するのに役立ち、最先端のVO法と比較して、ポイントゴールナビゲーションタスクの精度と堅牢性を示す。
Gibsonデータセットのリアルな屋内環境は、AI-Habitatシミュレーターで、ナビゲーションメトリクス(成功/SPLなど)を使用して提案されたアプローチを評価し、メトリクス(RPE/ATEなど)をポーズする。
本手法は,様々な音源からの動作先行を生かしてVO推定を向上し,ナビゲーションタスクを具体化する作業の方向性をさらに開放することを願っている。
関連論文リスト
- Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment [14.363948775085534]
屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
GPS信号を使わずにPointGoalナビゲーションの精度を向上させるために、ビジュアル・オドメトリー(VO)を用い、教師なしで訓練された新しいアクション統合モジュール(AIM)を提案する。
実験により,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-10-02T03:12:03Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - FAITH: Fast iterative half-plane focus of expansion estimation using
event-based optic flow [3.326320568999945]
本研究では, 小型航空機(MAV)の走行経路を決定するためのFAst ITerative Half-plane (FAITH)法を提案する。
その結果,提案手法の計算効率は高い精度を維持しながら最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:49:02Z) - Using Deep Reinforcement Learning Methods for Autonomous Vessels in 2D
Environments [11.657524999491029]
本研究では,Q-Learningとニューラル表現を組み合わせた深層強化学習を用いて不安定性を回避する。
当社の方法論では,Q-Learningを深く使用して,アジャイル方法論のローリングウェーブプランニングアプローチと組み合わせています。
実験の結果,VVNの長距離ミッションの平均性能は55.31倍に向上した。
論文 参考訳(メタデータ) (2020-03-23T12:58:58Z) - MVP: Unified Motion and Visual Self-Supervised Learning for Large-Scale
Robotic Navigation [23.54696982881734]
本稿では,大規模かつ目標駆動型ナビゲーションタスクのための新しい動き認識手法であるMVPを提案する。
我々のMVPベースの手法は、より速く学習でき、極端な環境変化とGPSデータの両方に対してより正確で堅牢です。
我々は,Oxford Robotcar と Nordland Railway の2つの大規模実世界のデータセットについて評価を行った。
論文 参考訳(メタデータ) (2020-03-02T05:19:52Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。