論文の概要: Localization of Autonomous Vehicles: Proof of Concept for A Computer
Vision Approach
- arxiv url: http://arxiv.org/abs/2104.02785v1
- Date: Tue, 6 Apr 2021 21:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 02:33:35.973468
- Title: Localization of Autonomous Vehicles: Proof of Concept for A Computer
Vision Approach
- Title(参考訳): 自律走行車のローカライズ:コンピュータビジョンアプローチのための概念実証
- Authors: Sara Zahedian, Kaveh Farokhi Sadabadi, Amir Nohekhan
- Abstract要約: 本稿では,複雑なハードウェアシステムやカメラがなくても動作する自律走行車(AV)の視覚的ローカライズ手法を提案する。
提案システムは,KITTIデータセットを用いてテストし,車両の最終的な位置を求める際に平均2mの精度を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a visual-based localization method for autonomous
vehicles (AVs) that operate in the absence of any complicated hardware system
but a single camera. Visual localization refers to techniques that aim to find
the location of an object based on visual information of its surrounding area.
The problem of localization has been of interest for many years. However,
visual localization is a relatively new subject in the literature of
transportation. Moreover, the inevitable application of this type of
localization in the context of autonomous vehicles demands special attention
from the transportation community to this problem. This study proposes a
two-step localization method that requires a database of geotagged images and a
camera mounted on a vehicle that can take pictures while the car is moving. The
first step which is image retrieval uses SIFT local feature descriptor to find
an initial location for the vehicle using image matching. The next step is to
utilize the Kalman filter to estimate a more accurate location for the vehicle
as it is moving. All stages of the introduced method are implemented as a
complete system using different Python libraries. The proposed system is tested
on the KITTI dataset and has shown an average accuracy of 2 meters in finding
the final location of the vehicle.
- Abstract(参考訳): 本稿では,複雑なハードウェアシステムやカメラがなくても動作する自律走行車(AV)の視覚的位置決め手法を提案する。
ビジュアルローカライゼーション(Visual Localization)とは、周囲の視覚情報に基づいて物体の位置を見つける手法である。
ローカライゼーションの問題は長年にわたって注目されてきた。
しかし、視覚局在は輸送文学において比較的新しい主題である。
さらに、自動運転車の文脈におけるこの種のローカライゼーションの必然的適用は、この問題に対して交通機関から特別の注意が必要である。
本研究では,車両の走行中に写真撮影が可能な車両に搭載されたジオタグ画像とカメラのデータベースを必要とする2段階のローカライズ手法を提案する。
画像検索の第1ステップは、SIFTローカル特徴記述子を使用して、画像マッチングを使用して車両の初期位置を検出する。
次のステップは、カルマンフィルターを使用して、移動中の車両のより正確な位置を推定する。
導入されたメソッドのすべてのステージは、異なるpythonライブラリを使用して完全なシステムとして実装される。
提案システムは,KITTIデータセットを用いてテストし,車両の最終的な位置を求める際に平均2mの精度を示した。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - A Survey on Visual Map Localization Using LiDARs and Cameras [0.0]
視覚マップのローカライゼーションを2段階プロセスとして定義する。
位置認識の段階では、視覚センサ出力とジオタグ付き地図領域の集合とを比較して、地図内の車両の初期位置を決定する。
地図距離定位の段階では、車両が地図を横切りながら追跡され、視界センサの出力と現在の地図の面積を連続的に調整する。
論文 参考訳(メタデータ) (2022-08-05T20:11:18Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Deep Dense Local Feature Matching and Vehicle Removal for Indoor Visual
Localization [0.0]
本研究では,屋内駐車場から収集した画像の中から,問合せの一致を頑健に把握する視覚的位置決めフレームワークを提案する。
我々は、人間の知覚に類似した深い局所的特徴マッチングを用いて、対応を見つける。
提案手法は86.9%の精度を達成し, 代替品よりも優れていた。
論文 参考訳(メタデータ) (2022-05-25T07:32:37Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Real-time Geo-localization Using Satellite Imagery and Topography for
Unmanned Aerial Vehicles [18.71806336611299]
本稿では,UAV上の軽量組込みシステムにおいて,シーン変更と実用性に信頼性のあるフレームワークを提案する。
このフレームワークは、オフラインデータベースの準備とオンライン推論の2つのステージで構成されている。
2つの異なるUAVプラットフォーム上でのイメージベースローカライゼーションのフィールド実験を行い、その結果を検証した。
論文 参考訳(メタデータ) (2021-08-07T01:47:19Z) - Coarse-to-fine Semantic Localization with HD Map for Autonomous Driving
in Structural Scenes [1.1024591739346292]
カメラを主センサとする自動運転のためのHDマップを用いたコスト効率の高い車両位置決めシステムを提案する。
視覚的セマンティクスをHDマップのランドマークにマップするデータアソシエーション問題として視覚に基づくローカライゼーションを定式化する。
本手法を2つのデータセット上で評価し,提案手法が異なる運転シナリオにおいて有望なローカライゼーション結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-06T11:58:55Z) - Connecting Language and Vision for Natural Language-Based Vehicle
Retrieval [77.88818029640977]
本稿では,言語記述という新たなモダリティを,興味ある車両の探索に適用する。
言語と視覚を結びつけるために,トランスフォーマーに基づく言語モデルを用いて最先端の視覚モデルを共同で訓練することを提案する。
提案手法は第5回AIシティチャレンジで1位を獲得し、18.69%のMRRの精度で競争性能を得た。
論文 参考訳(メタデータ) (2021-05-31T11:42:03Z) - Visual Localization for Autonomous Driving: Mapping the Accurate
Location in the City Maze [16.824901952766446]
視覚的局所化のための新しい特徴投票手法を提案する。
本研究では,提案した特徴投票手法を,最先端の3つの視覚的ローカライゼーションネットワークに実装する。
当社のアプローチは、挑戦的な都市内設定においても、ロバストな位置予測を可能にします。
論文 参考訳(メタデータ) (2020-08-13T03:59:34Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。