論文の概要: DA4AD: End-to-End Deep Attention-based Visual Localization for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2003.03026v2
- Date: Mon, 13 Jul 2020 17:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:49:32.621823
- Title: DA4AD: End-to-End Deep Attention-based Visual Localization for
Autonomous Driving
- Title(参考訳): DA4AD: 自律運転のための深い注意に基づく視覚的位置決め
- Authors: Yao Zhou, Guowei Wan, Shenhua Hou, Li Yu, Gang Wang, Xiaofei Rui,
Shiyu Song
- Abstract要約: 本稿では,自律運転のための新しい注目機能に基づく視覚的位置決めフレームワークを提案する。
提案手法は,LiDARに基づくローカライズソリューションと比較して,競合するローカライズ精度を実現する。
- 参考スコア(独自算出の注目度): 19.02445537167235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a visual localization framework based on novel deep attention
aware features for autonomous driving that achieves centimeter level
localization accuracy. Conventional approaches to the visual localization
problem rely on handcrafted features or human-made objects on the road. They
are known to be either prone to unstable matching caused by severe appearance
or lighting changes, or too scarce to deliver constant and robust localization
results in challenging scenarios. In this work, we seek to exploit the deep
attention mechanism to search for salient, distinctive and stable features that
are good for long-term matching in the scene through a novel end-to-end deep
neural network. Furthermore, our learned feature descriptors are demonstrated
to be competent to establish robust matches and therefore successfully estimate
the optimal camera poses with high precision. We comprehensively validate the
effectiveness of our method using a freshly collected dataset with high-quality
ground truth trajectories and hardware synchronization between sensors. Results
demonstrate that our method achieves a competitive localization accuracy when
compared to the LiDAR-based localization solutions under various challenging
circumstances, leading to a potential low-cost localization solution for
autonomous driving.
- Abstract(参考訳): そこで本稿では,自律運転のための新しい深層注意認識機能に基づく視覚定位フレームワークを提案する。
視覚局所化問題に対する従来のアプローチは、道路上の手作りの特徴や人造物に依存している。
厳しい外観や照明の変化による不安定なマッチングの傾向や、困難なシナリオにおいて定常的で堅牢なローカライゼーションを実現するには不足していることが知られている。
本研究では,新しいエンド・ツー・エンドのディープニューラルネットワークを用いて,シーンの長期マッチングに適した,高度で特徴的で安定した特徴を探索するために,ディープ・アテンション・メカニズムを活用しようとする。
さらに,我々の学習した特徴記述子は,頑健なマッチングを確立する能力があり,高い精度で最適なカメラポーズを推定できることを示した。
提案手法の有効性を,高品質な地上真実軌跡とセンサ間のハードウェア同期を用いて総合的に検証した。
その結果,LiDARをベースとしたローカライゼーションソリューションと比較して,様々な困難な状況下で競合するローカライゼーションの精度が向上し,自動運転の低コストなローカライゼーションソリューションが実現される可能性が示唆された。
関連論文リスト
- Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Deep Reinforcement Learning for Localizability-Enhanced Navigation in
Dynamic Human Environments [16.25625435648576]
自律ロボットにとって、信頼性の高いローカライゼーションは、効率的かつ安全にナビゲートすることが不可欠である。
深部強化学習による局所化可能性向上ナビゲーションのための新しい手法を提案する。
従来は見られなかった環境下では, 損失率と到着率に大きな改善が見られた。
論文 参考訳(メタデータ) (2023-03-22T07:44:35Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Change Detection for Local Explainability in Evolving Data Streams [72.4816340552763]
局所的特徴帰属法はポストホックやモデルに依存しない説明法として人気がある。
ローカルな属性が、ストリーミングやオンラインアプリケーションのような、現実的で絶えず変化する設定でどのように振る舞うかは、しばしば不明である。
局所変化と概念ドリフトを検出するフレキシブルでモデルに依存しないCDLEEDSを提案する。
論文 参考訳(メタデータ) (2022-09-06T18:38:34Z) - Deep Multi-Task Learning for Joint Localization, Perception, and
Prediction [68.50217234419922]
本稿では,ローカライズエラー下の最先端の自律性スタックで発生する問題について検討する。
我々は,認識,予測,局所化を共同で行うシステムの設計を行う。
本アーキテクチャでは,両タスク間の計算を再利用し,効率よくローカライズエラーを修正できる。
論文 参考訳(メタデータ) (2021-01-17T17:20:31Z) - Active Visual Localization in Partially Calibrated Environments [35.48595012305253]
人間は、目立った視覚的な手がかりやランドマークに追われて地図を使わずに、自分自身をしっかりとローカライズすることができる。
この研究では、自律エージェントを同じ能力でエンドウイングすることを目指している。
このような能力はロボットアプリケーションにおいて重要であるが、エージェントが部分的に調整された環境に晒される場合、非常に困難である。
合成データと実データの両方で構成された屋内シーンデータセットACR-6を提案し、アクティブビジュアルローカリゼーションのための困難なシナリオをシミュレートします。
論文 参考訳(メタデータ) (2020-12-08T08:00:55Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Ego-Motion Alignment from Face Detections for Collaborative Augmented
Reality [5.33024001730262]
トラッカーエゴとともに互いの顔や眼鏡を検出することは、局所座標系を空間的に関連付けるのに十分な条件を与えることを示す。
検出された眼鏡は、確実にアンカーとして機能し、対象とする実用用途に十分な精度をもたらすことができる。
論文 参考訳(メタデータ) (2020-10-05T16:57:48Z) - Visual Localization for Autonomous Driving: Mapping the Accurate
Location in the City Maze [16.824901952766446]
視覚的局所化のための新しい特徴投票手法を提案する。
本研究では,提案した特徴投票手法を,最先端の3つの視覚的ローカライゼーションネットワークに実装する。
当社のアプローチは、挑戦的な都市内設定においても、ロバストな位置予測を可能にします。
論文 参考訳(メタデータ) (2020-08-13T03:59:34Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。