論文の概要: 3DRealCar: An In-the-wild RGB-D Car Dataset with 360-degree Views
- arxiv url: http://arxiv.org/abs/2406.04875v1
- Date: Fri, 7 Jun 2024 12:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 14:11:13.803731
- Title: 3DRealCar: An In-the-wild RGB-D Car Dataset with 360-degree Views
- Title(参考訳): 3DRealCar:360度視界を備えたWild RGB-Dカーデータセット
- Authors: Xiaobiao Du, Haiyang Sun, Shuyun Wang, Zhuojie Wu, Hongwei Sheng, Jiaying Ying, Ming Lu, Tianqing Zhu, Kun Zhan, Xin Yu,
- Abstract要約: 3D車は一般的に、自動運転システム、バーチャル/拡張現実、ゲームで使われている。
既存の3Dカーデータセットは、合成または低品質のどちらかであり、高品質の現実世界の3Dカーデータセットに対する大きなギャップを示している。
3DRealCarと呼ばれる,3つの特徴を備えた,最初の大規模3D実車データセットを提案する。
- 参考スコア(独自算出の注目度): 24.414577645896415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D cars are commonly used in self-driving systems, virtual/augmented reality, and games. However, existing 3D car datasets are either synthetic or low-quality, presenting a significant gap toward the high-quality real-world 3D car datasets and limiting their applications in practical scenarios. In this paper, we propose the first large-scale 3D real car dataset, termed 3DRealCar, offering three distinctive features. (1) \textbf{High-Volume}: 2,500 cars are meticulously scanned by 3D scanners, obtaining car images and point clouds with real-world dimensions; (2) \textbf{High-Quality}: Each car is captured in an average of 200 dense, high-resolution 360-degree RGB-D views, enabling high-fidelity 3D reconstruction; (3) \textbf{High-Diversity}: The dataset contains various cars from over 100 brands, collected under three distinct lighting conditions, including reflective, standard, and dark. Additionally, we offer detailed car parsing maps for each instance to promote research in car parsing tasks. Moreover, we remove background point clouds and standardize the car orientation to a unified axis for the reconstruction only on cars without background and controllable rendering. We benchmark 3D reconstruction results with state-of-the-art methods across each lighting condition in 3DRealCar. Extensive experiments demonstrate that the standard lighting condition part of 3DRealCar can be used to produce a large number of high-quality 3D cars, improving various 2D and 3D tasks related to cars. Notably, our dataset brings insight into the fact that recent 3D reconstruction methods face challenges in reconstructing high-quality 3D cars under reflective and dark lighting conditions. \textcolor{red}{\href{https://xiaobiaodu.github.io/3drealcar/}{Our dataset is available here.}}
- Abstract(参考訳): 3D車は一般的に、自動運転システム、バーチャル/拡張現実、ゲームで使われている。
しかし、既存の3Dカーデータセットは、合成または低品質であり、高品質な現実世界の3Dカーデータセットに対する大きなギャップを示し、実用シナリオにおけるそれらのアプリケーションを制限する。
本稿では,3DRealCarと呼ばれる,3つの特徴を備えた3次元実車データセットを提案する。
1) \textbf{High-Volume}:2,500台の車が3Dスキャナーによって慎重にスキャンされ、車の画像と実世界次元の点雲を取得する (2) \textbf{High-Quality}: それぞれの車が200個の密集した高解像度の360度RGB-Dビューで撮影され、高忠実度3D再構築を可能にする (3) \textbf{High-Diversity}: データセットには、反射、標準、暗さを含む3つの異なる照明条件下で収集された100以上のブランドの様々な車が含まれている。
さらに,自動車解析タスクの研究を促進するために,各インスタンスに詳細なカー解析マップを提供する。
さらに,背景の雲を除去し,背景と制御可能なレンダリングを伴わない車上でのみ、再建のための統一軸への車両配向を標準化する。
我々は,3DRealCarの照明条件毎に,最先端の手法を用いて3D再構成結果のベンチマークを行った。
広汎な実験により、3DRealCarの標準照明条件部は、多数の高品質な3D自動車を生産し、自動車に関連する様々な2Dおよび3Dタスクを改善することができることが示された。
特に、我々のデータセットは、反射および暗い照明条件下での高品質な3D車の再構築において、最近の3D再構成手法が課題に直面しているという事実を洞察する。
\textcolor{red}{\href{https://xiaobiaodu.github.io/3drealcar/}{Our データセットはここで入手できる。
(3)
関連論文リスト
- RGM: Reconstructing High-fidelity 3D Car Assets with Relightable 3D-GS Generative Model from a Single Image [30.049602796278133]
高品質な3Dカーアセットは、ビデオゲーム、自動運転、バーチャルリアリティーなど、さまざまなアプリケーションに欠かせない。
3Dオブジェクトの表現としてNeRFや3D-GSを利用する現在の3D生成法は、固定照明下でランベルティアンオブジェクトを生成する。
単一入力画像から3Dカー資産を自動生成する新しい3Dオブジェクト生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:54:03Z) - DreamCar: Leveraging Car-specific Prior for in-the-wild 3D Car Reconstruction [29.095687643972784]
自動運転産業は通常、プロのアーティストを雇って、精巧な3D自動車を作っている。
自動車の画像を含むデータセットはすでに多数存在するので、これらのデータセットから高品質な3Dカーモデルを再構築することに重点を置いています。
1枚の画像であっても、高品質な3D車を再構成できるDreamCarという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T04:13:43Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - OmniObject3D: Large-Vocabulary 3D Object Dataset for Realistic
Perception, Reconstruction and Generation [107.71752592196138]
OmniObject3Dを提案する。OmniObject3Dは,大規模で高品質な3Dオブジェクトを持つ大語彙の3Dオブジェクトデータセットである。
190のカテゴリーで6,000のスキャン対象からなり、一般的な2Dデータセットと共通クラスを共有する。
それぞれの3Dオブジェクトは、2Dと3Dの両方のセンサーでキャプチャされ、テクスチャメッシュ、ポイントクラウド、マルチビューレンダリング画像、複数の実写ビデオを提供する。
論文 参考訳(メタデータ) (2023-01-18T18:14:18Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - Recovering and Simulating Pedestrians in the Wild [81.38135735146015]
本研究では,自動車の走行によって野生で捕獲されたセンサから歩行者の形状と動きを復元することを提案する。
再建された歩行者資産銀行をリアルな3Dシミュレーションシステムに組み込む。
シミュレーションしたLiDARデータを用いて,視覚知覚タスクに必要な実世界のデータ量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2020-11-16T17:16:32Z) - Cityscapes 3D: Dataset and Benchmark for 9 DoF Vehicle Detection [7.531596091318718]
我々はCityscapes 3Dを提案し、Cityscapesのオリジナルのデータセットを拡張し、あらゆる種類の車両に対して3Dバウンディングボックスアノテーションを提供する。
既存のデータセットとは対照的に、3DアノテーションはステレオRGB画像のみを使用してラベル付けされ、9自由度をすべてキャプチャしました。
さらに、我々はCityscapesベンチマークスイートを、新しいアノテーションに基づく3D車両検出と、この研究で提示されたメトリクスで補完する。
論文 参考訳(メタデータ) (2020-06-14T10:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。