論文の概要: Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment
- arxiv url: http://arxiv.org/abs/2210.00413v2
- Date: Mon, 3 Apr 2023 09:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 00:48:02.367980
- Title: Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment
- Title(参考訳): 室内環境におけるポイントゴールナビゲーションのための教師なしビジュアルオドメトリーとアクション統合
- Authors: Yijun Cao, Xianshi Zhang, Fuya Luo, Chuan Lin, and Yongjie Li
- Abstract要約: 屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
GPS信号を使わずにPointGoalナビゲーションの精度を向上させるために、ビジュアル・オドメトリー(VO)を用い、教師なしで訓練された新しいアクション統合モジュール(AIM)を提案する。
実験により,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 14.363948775085534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PointGoal navigation in indoor environment is a fundamental task for personal
robots to navigate to a specified point. Recent studies solved this PointGoal
navigation task with near-perfect success rate in photo-realistically simulated
environments, under the assumptions with noiseless actuation and most
importantly, perfect localization with GPS and compass sensors. However,
accurate GPS signalis difficult to be obtained in real indoor environment. To
improve the PointGoal navigation accuracy without GPS signal, we use visual
odometry (VO) and propose a novel action integration module (AIM) trained in
unsupervised manner. Sepecifically, unsupervised VO computes the relative pose
of the agent from the re-projection error of two adjacent frames, and then
replaces the accurate GPS signal with the path integration. The pseudo position
estimated by VO is used to train action integration which assists agent to
update their internal perception of location and helps improve the success rate
of navigation. The training and inference process only use RGB, depth,
collision as well as self-action information. The experiments show that the
proposed system achieves satisfactory results and outperforms the partially
supervised learning algorithms on the popular Gibson dataset.
- Abstract(参考訳): 屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
最近の研究は、ノイズのない動作とgpsとコンパスセンサによる完璧な位置決めの仮定の下で、フォトリアリスティックシミュレート環境でほぼ完璧に近い成功率でこのポイントゴーアナビゲーションタスクを解決した。
しかし、実際の屋内環境で正確なGPS信号を得るのは難しい。
gps信号無しでポイントゴーアナビゲーション精度を向上させるために,視覚オドメトリ(vo)を用い,教師なしで訓練された新しいアクション統合モジュール(aim)を提案する。
教師なしVOは、2つの隣接するフレームの再投射誤差からエージェントの相対的なポーズを計算し、正確なGPS信号を経路積分に置き換える。
VOによって推定される擬似位置は、エージェントが位置に対する内部認識を更新し、ナビゲーションの成功率を向上させるためのアクション統合の訓練に使用される。
トレーニングと推論プロセスは、RGB、深さ、衝突、および自己行動情報のみを使用する。
実験の結果,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
関連論文リスト
- MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation [3.9974562667271507]
視覚計測(VO)は,室内環境におけるエンボディエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
近年の深層学習VO法は, 頑健な性能を示すが, トレーニング中のサンプル不効率に悩まされている。
エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて、ロバストでサンプル効率の良いVOパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-07T15:36:49Z) - A Bionic Data-driven Approach for Long-distance Underwater Navigation with Anomaly Resistance [59.21686775951903]
様々な動物が環境の手がかりを使って正確なナビゲーションをしている。
動物航法にインスパイアされたこの研究は、長距離水中航法のためのバイオニックでデータ駆動のアプローチを提案する。
提案手法では,GPSシステムや地理地図を必要とせず,測地データを用いてナビゲーションを行う。
論文 参考訳(メタデータ) (2024-02-06T13:20:56Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - The Surprising Effectiveness of Visual Odometry Techniques for Embodied
PointGoal Navigation [100.08270721713149]
PointGoalナビゲーションは、シミュレーションされたEmbodied AI環境で導入された。
最近の進歩は、ほぼ完璧な精度でPointGoalナビゲーションタスクを解く(99.6%の成功)
本研究では,ナビゲーションポリシにビジュアルオドメトリ技術を統合することで,人気の高いHabitat PointNavベンチマークの最先端性を大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2021-08-26T02:12:49Z) - Towards bio-inspired unsupervised representation learning for indoor
aerial navigation [4.26712082692017]
本研究では,生物にインスパイアされた深層学習アルゴリズムによる同時位置決めとマッピング(SLAM)とそのドローンナビゲーションシステムへの応用について述べる。
本稿では,低次元潜在状態記述子を出力し,知覚的エイリアスに対する感度を軽減し,高効率な組込みハードウェアの開発を行う教師なし表現学習手法を提案する。
設計したアルゴリズムは,室内の倉庫環境において収集されたデータセットに基づいて評価され,最初の結果はロバストな屋内航法の実現可能性を示している。
論文 参考訳(メタデータ) (2021-06-17T08:42:38Z) - Multimodal Scale Consistency and Awareness for Monocular Self-Supervised
Depth Estimation [1.1470070927586016]
単眼ビデオの自己監督アプローチは、長いシーケンスにわたってスケール不整合に苦しむ。
外観ベースの損失を補うために、動的に重み付けされたGPS-to-Scale(g2s)損失を提案する。
低周波GPSデータによるトレーニングでも性能を向上させるため、推論時のスケール一貫性と認識深度推定を実証します。
論文 参考訳(メタデータ) (2021-03-03T15:39:41Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。