論文の概要: Geo-locating Road Objects using Inverse Haversine Formula with NVIDIA
Driveworks
- arxiv url: http://arxiv.org/abs/2401.07582v1
- Date: Mon, 15 Jan 2024 10:38:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 17:21:09.296044
- Title: Geo-locating Road Objects using Inverse Haversine Formula with NVIDIA
Driveworks
- Title(参考訳): nvidia driveworksを用いた逆ハバジン公式を用いた道路物体の位置推定
- Authors: Mamoona Birkhez Shami, Gabriel Kiss, Trond Arve Haakonsen, Frank
Lindseth
- Abstract要約: 本稿では,単眼カメラを用いた道路物体の位置決め手法を提案する。
我々は,Centimeter Positioning Service (CPOS) と逆ハヴェルシン式を用いて,道路物体の正確な位置決めを行う。
- 参考スコア(独自算出の注目度): 0.7428236410246181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geolocation is integral to the seamless functioning of autonomous vehicles
and advanced traffic monitoring infrastructures. This paper introduces a
methodology to geolocate road objects using a monocular camera, leveraging the
NVIDIA DriveWorks platform. We use the Centimeter Positioning Service (CPOS)
and the inverse Haversine formula to geo-locate road objects accurately. The
real-time algorithm processing capability of the NVIDIA DriveWorks platform
enables instantaneous object recognition and spatial localization for Advanced
Driver Assistance Systems (ADAS) and autonomous driving platforms. We present a
measurement pipeline suitable for autonomous driving (AD) platforms and provide
detailed guidelines for calibrating cameras using NVIDIA DriveWorks.
Experiments were carried out to validate the accuracy of the proposed method
for geolocating targets in both controlled and dynamic settings. We show that
our approach can locate targets with less than 1m error when the AD platform is
stationary and less than 4m error at higher speeds (i.e. up to 60km/h) within a
15m radius.
- Abstract(参考訳): ジオロケーションは、自動運転車と高度な交通監視インフラのシームレスな機能に不可欠なものだ。
本稿では,NVIDIA DriveWorksプラットフォームを利用して,単眼カメラを用いた道路オブジェクトの位置決め手法を提案する。
我々はCentimeter Positioning Service (CPOS) と逆Haversine式を用いて道路物体の正確な位置決めを行う。
nvidia driveworksプラットフォームのリアルタイムアルゴリズム処理機能により、advanced driver assistance systems(adas)とautomated driving platformsの即時オブジェクト認識と空間的ローカライズが可能になる。
本稿では,自律運転(ad)プラットフォームに適した計測パイプラインを提案し,nvidia driveworksを用いたカメラのキャリブレーションに関する詳細なガイドラインを提供する。
制御条件と動的条件の両方で目標を位置決めする手法の精度を検証する実験を行った。
提案手法は,15m半径内の高速(最大60km/h)において,広告プラットフォームが静止し4m未満の場合には,目標を1m未満の誤差で特定できることを示す。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Robust Vehicle Localization and Tracking in Rain using Street Maps [2.2651698012357473]
本研究では,道路網を用いた地図情報を用いてドリフト速度推定値の補正を行う車両位置推定手法を提案する。
具体的には, 間欠的なGPS, ドリフトIMU, VO推定を統合したフレキシブルフュージョンアルゴリズムを提案する。
各国の地理的に多様な4つのデータセットに対して,提案手法を強く評価した。
論文 参考訳(メタデータ) (2024-09-02T08:15:12Z) - Leveraging GNSS and Onboard Visual Data from Consumer Vehicles for Robust Road Network Estimation [18.236615392921273]
本稿では,自動運転車における道路グラフ構築の課題について述べる。
本稿では,これらの標準センサから取得したグローバルナビゲーション衛星システム(GNSS)のトレースと基本画像データについて提案する。
我々は、畳み込みニューラルネットワークを用いて、道路中心のセマンティックセグメンテーションタスクとして問題をフレーミングすることで、データの空間情報を利用する。
論文 参考訳(メタデータ) (2024-08-03T02:57:37Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Continuous Self-Localization on Aerial Images Using Visual and Lidar
Sensors [25.87104194833264]
本研究では,車両のセンサ情報を未確認対象領域の航空画像に登録することにより,屋外環境におけるジオトラッキング手法を提案する。
我々は、地上および空中画像から視覚的特徴を抽出するために、計量学習環境でモデルを訓練する。
本手法は,視認不可能な正光の自己局在化のために,エンド・ツー・エンドの微分可能なモデルでオンボードカメラを利用する最初の方法である。
論文 参考訳(メタデータ) (2022-03-07T12:25:44Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Embedded Vision for Self-Driving on Forest Roads [0.0]
AMTUは、オフロードの地形を自律的にナビゲートし、軌道に沿って森林破壊や損傷が発生したかどうかを検査するように設計されたロボットシステムである。
AMTUのコアコンポーネントは組み込みビジョンモジュールで、リアルタイム環境認識に最適化されている。
本研究施設の試験軌道における実験結果について報告する。
論文 参考訳(メタデータ) (2021-05-27T09:05:08Z) - Learning to Localize Using a LiDAR Intensity Map [87.04427452634445]
自動運転車のリアルタイム・キャリブレーション非依存・効果的なローカライズシステムを提案する。
私たちの方法は、オンラインLiDARスイープと強度マップをジョイントディープ埋め込みスペースに埋め込む方法を学びます。
システム全体の動作は15hzで,さまざまなlidarセンサや環境においてセンチメートルレベルの精度を実現しています。
論文 参考訳(メタデータ) (2020-12-20T11:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。