論文の概要: CoordiNet: uncertainty-aware pose regressor for reliable vehicle
localization
- arxiv url: http://arxiv.org/abs/2103.10796v1
- Date: Fri, 19 Mar 2021 13:32:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:38:11.169000
- Title: CoordiNet: uncertainty-aware pose regressor for reliable vehicle
localization
- Title(参考訳): coordinet: 信頼性の高い車両位置推定のための不確実性認識ポーズレグレッサー
- Authors: Arthur Moreau, Nathan Piasco, Dzmitry Tsishkou, Bogdan Stanciulescu,
Arnaud de La Fortelle
- Abstract要約: ロボット工学および自動運転車応用のためのニューラルネットワークを用いた視覚カメラのローカライゼーションについて検討する。
私たちのソリューションは、単一の画像から直接カメラポーズを予測するCNNベースのアルゴリズムです。
提案手法は,29cmの中央値誤差を1.9kmループで達成し,信頼性の高い代替案であることを示す。
- 参考スコア(独自算出の注目度): 3.4386226615580107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we investigate visual-based camera localization with neural
networks for robotics and autonomous vehicles applications. Our solution is a
CNN-based algorithm which predicts camera pose (3D translation and 3D rotation)
directly from a single image. It also provides an uncertainty estimate of the
pose. Pose and uncertainty are learned together with a single loss function.
Furthermore, we propose a new fully convolutional architecture, named
CoordiNet, designed to embed some of the scene geometry.
Our framework outperforms comparable methods on the largest available
benchmark, the Oxford RobotCar dataset, with an average error of 8 meters where
previous best was 19 meters. We have also investigated the performance of our
method on large scenes for real time (18 fps) vehicle localization. In this
setup, structure-based methods require a large database, and we show that our
proposal is a reliable alternative, achieving 29cm median error in a 1.9km loop
in a busy urban area.
- Abstract(参考訳): 本稿では,ロボットと自律走行車用ニューラルネットワークを用いた視覚カメラのローカライゼーションについて検討する。
我々の解はCNNに基づくアルゴリズムであり、単一の画像から直接カメラのポーズ(3次元翻訳と3次元回転)を予測する。
また、そのポーズの不確実性の推定も提供する。
ポーズと不確実性は単一の損失関数と共に学習される。
さらに,シーン幾何を埋め込むために設計された,CoordiNetという完全畳み込み型アーキテクチャを提案する。
私たちのフレームワークは、利用可能な最大のベンチマークであるOxford RobotCarデータセットにおいて、同等の手法よりも優れています。
また,大規模なシーンにおける車両位置推定(18fps)の性能についても検討した。
この設定では,構造ベース手法は大規模データベースを必要とするため,提案手法は信頼性の高い代替案であり,忙しい都市部で1.9kmのループで29cmの中央値誤差を達成した。
関連論文リスト
- CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - Collaboration Helps Camera Overtake LiDAR in 3D Detection [49.58433319402405]
カメラのみの3D検出は、LiDARベースの検出システムと比較して、オブジェクトを3D空間にローカライズするための簡単なソリューションを提供する。
提案するコラボレーティブカメラのみの3D検出(CoCa3D)により,エージェントは通信を通じて相互に補完情報を共有できる。
その結果、CoCa3Dは従来のSOTA性能をDAIR-V2Xで44.21%改善し、OPV2V+で30.60%、AP@70でCoPerception-UAVs+で12.59%向上した。
論文 参考訳(メタデータ) (2023-03-23T03:50:41Z) - Fast and Lightweight Scene Regressor for Camera Relocalization [1.6708069984516967]
プレビルドされた3Dモデルに対して直接カメラのポーズを推定することは、いくつかのアプリケーションにとって違法にコストがかかる可能性がある。
本研究では,シーン座標のマッピングに多層パーセプトロンネットワークのみを必要とする簡易なシーン回帰手法を提案する。
提案手法では,高密度のRGB画像ではなく,スパースディスクリプタを用いてシーン座標を回帰する。
論文 参考訳(メタデータ) (2022-12-04T14:41:20Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - FvOR: Robust Joint Shape and Pose Optimization for Few-view Object
Reconstruction [37.81077373162092]
数枚の画像から正確な3Dオブジェクトモデルを再構築することは、コンピュータビジョンにおいて難しい問題である。
FvORは、ノイズの多い入力ポーズを持つ数枚の画像から正確な3Dモデルを予測する学習ベースのオブジェクト再構成手法である。
論文 参考訳(メタデータ) (2022-05-16T15:39:27Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Monocular Camera Localization for Automated Vehicles Using Image
Retrieval [8.594652891734288]
本研究では,1台のカメラを用いて,自動運転車の現在位置と方向角をリアルタイムで検出する問題に対処する。
リアルタイムにLiDARと高精細3Dマップを必要とする手法と比較して,提案手法はスケーラブルで計算効率がよい。
論文 参考訳(メタデータ) (2021-09-13T20:12:42Z) - Robust 2D/3D Vehicle Parsing in CVIS [54.825777404511605]
本研究では,協調型車両インフラシステム(CVIS)の一環として,異なるカメラビューの車両を堅牢に検出・認識する新しいアプローチを提案する。
提案方式は任意のカメラビュー向けに設計されており,本質的パラメータや外部的パラメータを仮定しない。
実際に,本手法は2次元検出,インスタンスセグメンテーション,6-DoFのポーズ推定においてSOTA法より優れている。
論文 参考訳(メタデータ) (2021-03-11T03:35:05Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。