論文の概要: Automatic Map Update Using Dashcam Videos
- arxiv url: http://arxiv.org/abs/2109.12131v1
- Date: Fri, 24 Sep 2021 18:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:56:46.284714
- Title: Automatic Map Update Using Dashcam Videos
- Title(参考訳): dashcamビデオを用いた地図の自動更新
- Authors: Aziza Zhanabatyrova, Clayton Souza Leite, Yu Xiao
- Abstract要約: 実時間変化検出と局所化に着目したSfMベースの自動マップ更新ソリューションを提案する。
本システムでは,スパースSfM点雲を用いて,2次元画像から検出した物体を3次元空間内に検出することができる。
- 参考スコア(独自算出の注目度): 1.6911482053867475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving requires 3D maps that provide accurate and up-to-date
information about semantic landmarks. Due to the wider availability and lower
cost of cameras compared with laser scanners, vision-based mapping has
attracted much attention from academia and industry. Among the existing
solutions, Structure-from-Motion (SfM) technology has proved to be feasible for
building 3D maps from crowdsourced data, since it allows unordered images as
input. Previous works on SfM have mainly focused on issues related to building
3D point clouds and calculating camera poses, leaving the issues of automatic
change detection and localization open.
We propose in this paper an SfM-based solution for automatic map update, with
a focus on real-time change detection and localization. Our solution builds on
comparison of semantic map data (e.g. types and locations of traffic signs).
Through a novel design of the pixel-wise 3D localization algorithm, our system
can locate the objects detected from 2D images in a 3D space, utilizing sparse
SfM point clouds. Experiments with dashcam videos collected from two urban
areas prove that the system is able to locate visible traffic signs in front
along the driving direction with a median distance error of 1.52 meters.
Moreover, it can detect up to 80\% of the changes with a median distance error
of 2.21 meters. The result analysis also shows the potential of significantly
improving the system performance in the future by increasing the accuracy of
the background technology in use, including in particularly the object
detection and point cloud geo-registration algorithms.
- Abstract(参考訳): 自動運転には、セマンティックランドマークに関する正確な最新情報を提供する3dマップが必要である。
レーザースキャナと比較して、カメラの可用性と低コストのため、視覚ベースのマッピングは学術や産業から注目を集めている。
既存のソリューションの中で、Structure-from-Motion(SfM)技術は、クラウドソースされたデータから3Dマップを構築するのに有効であることが証明されている。
sfmの以前の研究は、主に3dポイントクラウドの構築とカメラポーズの計算に関する問題に焦点を当てており、自動変更検出とローカライゼーションの問題は残されている。
本稿では,リアルタイム変化検出と局所化に着目した,自動地図更新のためのsfmベースのソリューションを提案する。
私たちのソリューションはセマンティックマップデータ(例えば、交通標識の型や位置)の比較に基づいています。
画素ワイド3Dローカライゼーションアルゴリズムの新たな設計により,スパースSfM点雲を用いて2次元画像から検出された物体を3次元空間内に検出することができる。
2つの都市からダッシュカムビデオが収集された実験により、システムは運転方向に沿って前方に目に見える交通標識を見つけることができ、中央距離誤差は1.22mであることがわかった。
さらに、中央値距離2.21mの誤差で最大80%の変化を検出することができる。
その結果、特にオブジェクト検出およびポイントクラウドジオ登録アルゴリズムを含む、使用中の背景技術の精度を高めることにより、将来的なシステム性能を著しく向上する可能性も示された。
関連論文リスト
- HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - OCTraN: 3D Occupancy Convolutional Transformer Network in Unstructured
Traffic Scenarios [0.0]
我々は2次元画像特徴を3次元占有特徴に変換するために反復アテンションを用いたトランスフォーマーアーキテクチャOCTraNを提案する。
また、LiDARの地上真実の必要性を排除し、任意のシーンにモデルを一般化するための自己教師型トレーニングパイプラインも開発している。
論文 参考訳(メタデータ) (2023-07-20T15:06:44Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Sparse Semantic Map-Based Monocular Localization in Traffic Scenes Using
Learned 2D-3D Point-Line Correspondences [29.419138863851526]
クエリー画像が与えられた場合、カメラのポーズが先行マップに対応すると見積もることが目的である。
既存のアプローチは、登録問題を解決するために、機能レベルでの高密度な点記述子に大きく依存している。
本稿では,よく設計されたディープニューラルネットワークを用いて2D-3D登録を行う,スパースセマンティックマップに基づく単眼位置推定法を提案する。
論文 参考訳(メタデータ) (2022-10-10T10:29:07Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Monocular Vision based Crowdsourced 3D Traffic Sign Positioning with
Unknown Camera Intrinsics and Distortion Coefficients [11.38332845467423]
カメラの焦点距離,主点,歪み係数を事前に知ることなく,3次元信号位置の計算手法を実証する。
我々はそれぞれ0.26mと1.38mの平均的な単行程と絶対的な位置決め精度を達成した。
論文 参考訳(メタデータ) (2020-07-09T07:03:17Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。