論文の概要: Monocular Vision based Crowdsourced 3D Traffic Sign Positioning with
Unknown Camera Intrinsics and Distortion Coefficients
- arxiv url: http://arxiv.org/abs/2007.04592v1
- Date: Thu, 9 Jul 2020 07:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 04:06:31.706686
- Title: Monocular Vision based Crowdsourced 3D Traffic Sign Positioning with
Unknown Camera Intrinsics and Distortion Coefficients
- Title(参考訳): 未知カメラ内在性と歪み係数を用いたクラウドソーシング3次元トラヒックサイン位置決め
- Authors: Hemang Chawla, Matti Jukola, Elahe Arani, and Bahram Zonooz
- Abstract要約: カメラの焦点距離,主点,歪み係数を事前に知ることなく,3次元信号位置の計算手法を実証する。
我々はそれぞれ0.26mと1.38mの平均的な単行程と絶対的な位置決め精度を達成した。
- 参考スコア(独自算出の注目度): 11.38332845467423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles and driver assistance systems utilize maps of 3D semantic
landmarks for improved decision making. However, scaling the mapping process as
well as regularly updating such maps come with a huge cost. Crowdsourced
mapping of these landmarks such as traffic sign positions provides an appealing
alternative. The state-of-the-art approaches to crowdsourced mapping use ground
truth camera parameters, which may not always be known or may change over time.
In this work, we demonstrate an approach to computing 3D traffic sign positions
without knowing the camera focal lengths, principal point, and distortion
coefficients a priori. We validate our proposed approach on a public dataset of
traffic signs in KITTI. Using only a monocular color camera and GPS, we achieve
an average single journey relative and absolute positioning accuracy of 0.26 m
and 1.38 m, respectively.
- Abstract(参考訳): 自動運転車と運転支援システムは、3Dセマンティックなランドマークの地図を利用して意思決定を改善する。
しかし、マッピングプロセスのスケーリングや、そのようなマップの定期的な更新には、膨大なコストがかかる。
交通標識の位置のようなこれらのランドマークのクラウドソーシングマッピングは、魅力的な代替手段となります。
クラウドソースマッピングに対する最先端のアプローチでは、地上の真理カメラパラメータが使用されている。
本研究では,カメラの焦点長,主点,歪み係数を事前に知ることなく3次元トラヒックサイン位置を計算する手法を提案する。
提案手法をKITTIにおける交通標識の公開データセット上で検証する。
単色カメラとGPSのみを用いて、平均的な1回の移動距離と絶対位置の精度をそれぞれ0.26mと1.38mとする。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Sparse Semantic Map-Based Monocular Localization in Traffic Scenes Using
Learned 2D-3D Point-Line Correspondences [29.419138863851526]
クエリー画像が与えられた場合、カメラのポーズが先行マップに対応すると見積もることが目的である。
既存のアプローチは、登録問題を解決するために、機能レベルでの高密度な点記述子に大きく依存している。
本稿では,よく設計されたディープニューラルネットワークを用いて2D-3D登録を行う,スパースセマンティックマップに基づく単眼位置推定法を提案する。
論文 参考訳(メタデータ) (2022-10-10T10:29:07Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Real-time Full-stack Traffic Scene Perception for Autonomous Driving
with Roadside Cameras [20.527834125706526]
道路側カメラを用いた交通シーン認識のための新しい枠組みを提案する。
提案フレームワークは,物体検出,物体位置推定,物体追跡,マルチカメラ情報融合など,道路面の認識をフルスタックでカバーする。
当社のフレームワークはエルズワース・Rd.と米国ミズーリ州アンアーバー州にある2車線のラウンドアラウンドで展開されており,リアルタイム交通流モニタリングと高精度車両軌道抽出を実現している。
論文 参考訳(メタデータ) (2022-06-20T13:33:52Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Automatic Map Update Using Dashcam Videos [1.6911482053867475]
実時間変化検出と局所化に着目したSfMベースの自動マップ更新ソリューションを提案する。
本システムでは,スパースSfM点雲を用いて,2次元画像から検出した物体を3次元空間内に検出することができる。
論文 参考訳(メタデータ) (2021-09-24T18:00:57Z) - Crowdsourced 3D Mapping: A Combined Multi-View Geometry and
Self-Supervised Learning Approach [10.610403488989428]
本稿では,意味的意味のあるランドマークの3次元位置を,カメラ固有の知識を仮定せずに推定するフレームワークを提案する。
交通標識の位置推定には,多視点幾何と深層学習に基づく自己校正,深度,エゴモーション推定を利用する。
我々はそれぞれ39cmと1.26mの平均単方向相対位置と絶対位置の精度を達成した。
論文 参考訳(メタデータ) (2020-07-25T12:10:16Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。