論文の概要: DA4AD: End-to-End Deep Attention-based Visual Localization for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2003.03026v2
- Date: Mon, 13 Jul 2020 17:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:49:32.621823
- Title: DA4AD: End-to-End Deep Attention-based Visual Localization for
Autonomous Driving
- Title(参考訳): DA4AD: 自律運転のための深い注意に基づく視覚的位置決め
- Authors: Yao Zhou, Guowei Wan, Shenhua Hou, Li Yu, Gang Wang, Xiaofei Rui,
Shiyu Song
- Abstract要約: 本稿では,自律運転のための新しい注目機能に基づく視覚的位置決めフレームワークを提案する。
提案手法は,LiDARに基づくローカライズソリューションと比較して,競合するローカライズ精度を実現する。
- 参考スコア(独自算出の注目度): 19.02445537167235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a visual localization framework based on novel deep attention
aware features for autonomous driving that achieves centimeter level
localization accuracy. Conventional approaches to the visual localization
problem rely on handcrafted features or human-made objects on the road. They
are known to be either prone to unstable matching caused by severe appearance
or lighting changes, or too scarce to deliver constant and robust localization
results in challenging scenarios. In this work, we seek to exploit the deep
attention mechanism to search for salient, distinctive and stable features that
are good for long-term matching in the scene through a novel end-to-end deep
neural network. Furthermore, our learned feature descriptors are demonstrated
to be competent to establish robust matches and therefore successfully estimate
the optimal camera poses with high precision. We comprehensively validate the
effectiveness of our method using a freshly collected dataset with high-quality
ground truth trajectories and hardware synchronization between sensors. Results
demonstrate that our method achieves a competitive localization accuracy when
compared to the LiDAR-based localization solutions under various challenging
circumstances, leading to a potential low-cost localization solution for
autonomous driving.
- Abstract(参考訳): そこで本稿では,自律運転のための新しい深層注意認識機能に基づく視覚定位フレームワークを提案する。
視覚局所化問題に対する従来のアプローチは、道路上の手作りの特徴や人造物に依存している。
厳しい外観や照明の変化による不安定なマッチングの傾向や、困難なシナリオにおいて定常的で堅牢なローカライゼーションを実現するには不足していることが知られている。
本研究では,新しいエンド・ツー・エンドのディープニューラルネットワークを用いて,シーンの長期マッチングに適した,高度で特徴的で安定した特徴を探索するために,ディープ・アテンション・メカニズムを活用しようとする。
さらに,我々の学習した特徴記述子は,頑健なマッチングを確立する能力があり,高い精度で最適なカメラポーズを推定できることを示した。
提案手法の有効性を,高品質な地上真実軌跡とセンサ間のハードウェア同期を用いて総合的に検証した。
その結果,LiDARをベースとしたローカライゼーションソリューションと比較して,様々な困難な状況下で競合するローカライゼーションの精度が向上し,自動運転の低コストなローカライゼーションソリューションが実現される可能性が示唆された。
関連論文リスト
- Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - MapLocNet: Coarse-to-Fine Feature Registration for Visual Re-Localization in Navigation Maps [8.373285397029884]
伝統的なローカライゼーションアプローチは、正確に注釈付けされたランドマークからなる高定義(HD)マップに依存している。
本稿では,画像登録にインスパイアされたトランスフォーマーを用いたニューラルリローカライズ手法を提案する。
提案手法は, nuScenes と Argoverse の両方のデータセット上で, 現在最先端の OrienterNet を著しく上回っている。
論文 参考訳(メタデータ) (2024-07-11T14:51:18Z) - Accurate Cooperative Localization Utilizing LiDAR-equipped Roadside Infrastructure for Autonomous Driving [2.0499240875882]
LiDARは、センチメートルレベルの精度で車両のローカライズを容易にする。
これらの高精度な手法は、識別可能なマップ機能を持たない環境での信頼性上の課題に直面することが多い。
本稿では,道路側ユニット(RSU)と車両間通信(V2I)を併用して車両の自己位置決定を支援する手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T10:44:42Z) - Monocular Localization with Semantics Map for Autonomous Vehicles [8.242967098897408]
低レベルのテクスチャ機能の代わりに安定したセマンティック機能を利用する新しい視覚的セマンティックローカライゼーションアルゴリズムを提案する。
まず、セマンティックマップは、カメラやLiDARセンサーを使用して、グラウンドマーカー、レーンライン、ポールなどのセマンティックオブジェクトを検出してオフラインで構築される。
オンラインの視覚的ローカライゼーションは意味的特徴とマップオブジェクトのデータアソシエーションによって行われる。
論文 参考訳(メタデータ) (2024-06-06T08:12:38Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Deep Multi-Task Learning for Joint Localization, Perception, and
Prediction [68.50217234419922]
本稿では,ローカライズエラー下の最先端の自律性スタックで発生する問題について検討する。
我々は,認識,予測,局所化を共同で行うシステムの設計を行う。
本アーキテクチャでは,両タスク間の計算を再利用し,効率よくローカライズエラーを修正できる。
論文 参考訳(メタデータ) (2021-01-17T17:20:31Z) - Active Visual Localization in Partially Calibrated Environments [35.48595012305253]
人間は、目立った視覚的な手がかりやランドマークに追われて地図を使わずに、自分自身をしっかりとローカライズすることができる。
この研究では、自律エージェントを同じ能力でエンドウイングすることを目指している。
このような能力はロボットアプリケーションにおいて重要であるが、エージェントが部分的に調整された環境に晒される場合、非常に困難である。
合成データと実データの両方で構成された屋内シーンデータセットACR-6を提案し、アクティブビジュアルローカリゼーションのための困難なシナリオをシミュレートします。
論文 参考訳(メタデータ) (2020-12-08T08:00:55Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Visual Localization for Autonomous Driving: Mapping the Accurate
Location in the City Maze [16.824901952766446]
視覚的局所化のための新しい特徴投票手法を提案する。
本研究では,提案した特徴投票手法を,最先端の3つの視覚的ローカライゼーションネットワークに実装する。
当社のアプローチは、挑戦的な都市内設定においても、ロバストな位置予測を可能にします。
論文 参考訳(メタデータ) (2020-08-13T03:59:34Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。