論文の概要: UrbanScene3D: A Large Scale Urban Scene Dataset and Simulator
- arxiv url: http://arxiv.org/abs/2107.04286v1
- Date: Fri, 9 Jul 2021 07:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:41:07.385880
- Title: UrbanScene3D: A Large Scale Urban Scene Dataset and Simulator
- Title(参考訳): UrbanScene3D: 大規模都市景観データセットとシミュレータ
- Authors: Yilin Liu and Fuyou Xue and Hui Huang
- Abstract要約: 本論文では,Unreal Engine 4 と AirSim をベースとした手頃なシミュレータに付随する大規模都市景観データセットを提案する。
従来の2D情報や人為的な3DCADモデルに基づいた作品とは異なり、UrbanScene3Dには、コンパクトな人造モデルと、空中画像で再構成された詳細な現実世界モデルの両方が含まれている。
- 参考スコア(独自算出の注目度): 13.510431691480727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to perceive the environments in different ways is essential to
robotic research. This involves the analysis of both 2D and 3D data sources. We
present a large scale urban scene dataset associated with a handy simulator
based on Unreal Engine 4 and AirSim, which consists of both man-made and
real-world reconstruction scenes in different scales, referred to as
UrbanScene3D. Unlike previous works that purely based on 2D information or
man-made 3D CAD models, UrbanScene3D contains both compact man-made models and
detailed real-world models reconstructed by aerial images. Each building has
been manually extracted from the entire scene model and then has been assigned
with a unique label, forming an instance segmentation map. The provided 3D
ground-truth textured models with instance segmentation labels in UrbanScene3D
allow users to obtain all kinds of data they would like to have: instance
segmentation map, depth map in arbitrary resolution, 3D point cloud/mesh in
both visible and invisible places, etc. In addition, with the help of AirSim,
users can also simulate the robots (cars/drones)to test a variety of autonomous
tasks in the proposed city environment. Please refer to our paper and
website(https://vcc.tech/UrbanScene3D/) for further details and applications.
- Abstract(参考訳): 異なる方法で環境を知覚する能力は、ロボット研究に不可欠である。
これには2dデータソースと3dデータソースの両方の分析が含まれる。
本研究では,Unreal Engine 4 と AirSim をベースとした手頃なシミュレータを応用した大規模都市景観データセットを提案する。
従来の2d情報や人工3dcadモデルに基づく作品とは異なり、urbanscene3dは小型の人工物モデルと航空画像で再構成された詳細な実世界のモデルの両方を含んでいる。
各建物はシーンモデル全体から手動で抽出され、ユニークなラベルが割り当てられ、インスタンスセグメンテーションマップが作成されます。
UrbanScene3Dのインスタンスセグメンテーションラベルが付いた3Dの地平線テクスチャモデルでは、ユーザは、インスタンスセグメンテーションマップ、任意の解像度での深度マップ、可視および見えない場所での3Dポイントクラウド/メッシュなど、すべての種類のデータを取得することができる。
さらに、airsimの助けを借りて、ユーザーはロボット(カー/ドロネス)をシミュレートして、提案された都市環境で様々な自律的なタスクをテストできる。
詳細とアプリケーションの詳細については、私たちの論文とWebサイト(https://vcc.tech/UrbanScene3D/)を参照してください。
関連論文リスト
- SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - Urban Scene Diffusion through Semantic Occupancy Map [49.20779809250597]
UrbanDiffusionは、Bird's-Eye View (BEV)マップに条件付き3次元拡散モデルである。
我々のモデルは,潜在空間内のシーンレベルの構造の分布を学習する。
実世界の運転データセットをトレーニングした後、我々のモデルは多様な都市シーンを生成することができる。
論文 参考訳(メタデータ) (2024-03-18T11:54:35Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - Model2Scene: Learning 3D Scene Representation via Contrastive
Language-CAD Models Pre-training [105.3421541518582]
現在成功している3次元シーン認識法は、大規模アノテートされた点雲に依存している。
CAD(Computer-Aided Design)モデルと言語から自由な3Dシーン表現を学習する新しいパラダイムであるModel2Sceneを提案する。
Model2Sceneは、平均mAPが46.08%、ScanNetとS3DISのデータセットが55.49%という、ラベルなしの優れた3Dオブジェクトのサリエント検出をもたらす。
論文 参考訳(メタデータ) (2023-09-29T03:51:26Z) - Visual Localization using Imperfect 3D Models from the Internet [54.731309449883284]
本稿では,3次元モデルにおける欠陥が局所化精度に与える影響について検討する。
インターネットから得られる3Dモデルは、容易に表現できるシーン表現として有望であることを示す。
論文 参考訳(メタデータ) (2023-04-12T16:15:05Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z) - Tracking Emerges by Looking Around Static Scenes, with Neural 3D Mapping [23.456046776979903]
本稿では,任意の場面(静的あるいは動的)における静止点のマルチビューデータを利用して,ニューラル3Dマッピングモジュールを学習することを提案する。
ニューラル3Dマッパーは、RGB-Dデータを入力として消費し、深い特徴の3Dボクセルグリッドを出力として生成する。
教師なし3Dオブジェクトトラッカーは、教師なし2Dと2.5Dのトラッカーよりも優れており、教師なし3Dオブジェクトトラッカーの精度に近づいていることを示す。
論文 参考訳(メタデータ) (2020-08-04T02:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。