論文の概要: Cityscapes 3D: Dataset and Benchmark for 9 DoF Vehicle Detection
- arxiv url: http://arxiv.org/abs/2006.07864v1
- Date: Sun, 14 Jun 2020 10:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 12:46:50.308266
- Title: Cityscapes 3D: Dataset and Benchmark for 9 DoF Vehicle Detection
- Title(参考訳): cityscapes 3d: 9台のdof車両検出のためのデータセットとベンチマーク
- Authors: Nils G\"ahlert, Nicolas Jourdan, Marius Cordts, Uwe Franke, Joachim
Denzler
- Abstract要約: 我々はCityscapes 3Dを提案し、Cityscapesのオリジナルのデータセットを拡張し、あらゆる種類の車両に対して3Dバウンディングボックスアノテーションを提供する。
既存のデータセットとは対照的に、3DアノテーションはステレオRGB画像のみを使用してラベル付けされ、9自由度をすべてキャプチャしました。
さらに、我々はCityscapesベンチマークスイートを、新しいアノテーションに基づく3D車両検出と、この研究で提示されたメトリクスで補完する。
- 参考スコア(独自算出の注目度): 7.531596091318718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting vehicles and representing their position and orientation in the
three dimensional space is a key technology for autonomous driving. Recently,
methods for 3D vehicle detection solely based on monocular RGB images gained
popularity. In order to facilitate this task as well as to compare and drive
state-of-the-art methods, several new datasets and benchmarks have been
published. Ground truth annotations of vehicles are usually obtained using
lidar point clouds, which often induces errors due to imperfect calibration or
synchronization between both sensors. To this end, we propose Cityscapes 3D,
extending the original Cityscapes dataset with 3D bounding box annotations for
all types of vehicles. In contrast to existing datasets, our 3D annotations
were labeled using stereo RGB images only and capture all nine degrees of
freedom. This leads to a pixel-accurate reprojection in the RGB image and a
higher range of annotations compared to lidar-based approaches. In order to
ease multitask learning, we provide a pairing of 2D instance segments with 3D
bounding boxes. In addition, we complement the Cityscapes benchmark suite with
3D vehicle detection based on the new annotations as well as metrics presented
in this work. Dataset and benchmark are available online.
- Abstract(参考訳): 車両の検出と3次元空間における位置と方向の表現は、自動運転の重要な技術である。
近年,モノクロRGB画像のみに基づく3次元車両検出手法が普及している。
この作業を容易にし、最先端のメソッドを比較および駆動するために、いくつかの新しいデータセットとベンチマークが公開された。
車両の地上の真理アノテーションは通常ライダー点雲を用いて取得されるが、これは両方のセンサー間の不完全な校正や同期のためにしばしばエラーを引き起こす。
そこで,我々はcityscapes 3dを提案する。cityscapesデータセットを,すべての車両に3dバウンディングボックスアノテーションで拡張する。
既存のデータセットとは対照的に、3DアノテーションはステレオRGB画像のみを使用してラベル付けされ、9自由度をすべてキャプチャしました。
これにより、RGBイメージのピクセル精度が向上し、ライダーベースのアプローチよりもアノテーションの幅が大きくなる。
マルチタスク学習を容易にするため、3次元境界ボックスを用いた2次元インスタンスセグメントのペアリングを提供する。
さらに、我々はCityscapesベンチマークスイートを、新しいアノテーションに基づく3D車両検出と、この研究で提示されたメトリクスで補完する。
datasetとbenchmarkはオンラインで入手できる。
関連論文リスト
- Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - View-to-Label: Multi-View Consistency for Self-Supervised 3D Object
Detection [46.077668660248534]
本稿では,RGBシーケンスのみから,自己監督型3Dオブジェクト検出を行う手法を提案する。
KITTI 3Dデータセットを用いた実験では,最先端の自己管理手法と同等の性能を示した。
論文 参考訳(メタデータ) (2023-05-29T09:30:39Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Learning to Predict the 3D Layout of a Scene [0.3867363075280544]
本稿では,単一のRGB画像のみを使用する手法を提案し,LiDARセンサを持たないデバイスや車両に適用できるようにする。
KITTIデータセットは,クラスラベル付き道路交通シーン,2D境界ボックス,自由度7自由度3Dアノテーションで構成される。
我々は、公式のKITTIベンチマークで要求されるように、結合閾値70%の3次元交差で測定された適度に困難なデータに対して平均47.3%の平均精度を達成し、従来の最先端のRGBのみの手法よりも大きなマージンで上回った。
論文 参考訳(メタデータ) (2020-11-19T17:23:30Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Single-Shot 3D Detection of Vehicles from Monocular RGB Images via
Geometry Constrained Keypoints in Real-Time [6.82446891805815]
単眼RGB画像における車両検出のための新しい3次元単発物体検出法を提案する。
提案手法は,3次元空間への2次元検出を付加回帰および分類パラメータの予測により引き上げる。
KITTI 3D Object Detection と新しい nuScenes Object Detection ベンチマークを用いて,自律走行のための異なるデータセットに対するアプローチを検証し,その評価を行った。
論文 参考訳(メタデータ) (2020-06-23T15:10:19Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。