論文の概要: LayoutMP3D: Layout Annotation of Matterport3D
- arxiv url: http://arxiv.org/abs/2003.13516v1
- Date: Mon, 30 Mar 2020 14:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:03:16.649306
- Title: LayoutMP3D: Layout Annotation of Matterport3D
- Title(参考訳): layoutmp3d: matterport3dのレイアウトアノテーション
- Authors: Fu-En Wang, Yu-Hsuan Yeh, Min Sun, Wei-Chen Chiu, Yi-Hsuan Tsai
- Abstract要約: Matterport3Dデータセットは、当初提供されていた深度マップ基底真理と共に検討し、さらにMatterport3Dのサブセットからレイアウト基底真理のアノテーションを公開します。
私たちのデータセットはレイアウト情報と深度情報の両方を提供しており、両方のキューを統合することで環境を探索する機会を提供します。
- 参考スコア(独自算出の注目度): 59.11106101006007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring the information of 3D layout from a single equirectangular panorama
is crucial for numerous applications of virtual reality or robotics (e.g.,
scene understanding and navigation). To achieve this, several datasets are
collected for the task of 360 layout estimation. To facilitate the learning
algorithms for autonomous systems in indoor scenarios, we consider the
Matterport3D dataset with their originally provided depth map ground truths and
further release our annotations for layout ground truths from a subset of
Matterport3D. As Matterport3D contains accurate depth ground truths from
time-of-flight (ToF) sensors, our dataset provides both the layout and depth
information, which enables the opportunity to explore the environment by
integrating both cues.
- Abstract(参考訳): 単一の正方形パノラマから3Dレイアウトに関する情報を推測することは、仮想現実やロボット工学(シーン理解やナビゲーションなど)の多くの応用に不可欠である。
これを実現するために、360度レイアウト推定のタスクのために、いくつかのデータセットが収集される。
屋内シナリオにおける自律型システムの学習アルゴリズムを容易にするために,当初提供されていた深度マップ基底真理を用いてMatterport3Dデータセットを考察し,さらにMatterport3Dのサブセットからレイアウト基底真理のアノテーションをリリースする。
Matterport3Dには、飛行時間(ToF)センサーからの正確な深度グラウンドの真実が含まれているため、我々のデータセットは、レイアウト情報と深度情報の両方を提供する。
関連論文リスト
- MMScan: A Multi-Modal 3D Scene Dataset with Hierarchical Grounded Language Annotations [55.022519020409405]
本稿では,マルチモーダルな3Dシーンデータセットと階層型言語アノテーションを用いたベンチマーク,MMScanを構築した。
結果として得られたマルチモーダルな3Dデータセットは、109kオブジェクトと7.7kリージョン上の1.4Mメタアノテーション付きキャプションと、3Dビジュアルグラウンドと質問応答ベンチマークのための3.04M以上の多様なサンプルを含んでいる。
論文 参考訳(メタデータ) (2024-06-13T17:59:30Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Object-level 3D Semantic Mapping using a Network of Smart Edge Sensors [25.393382192511716]
我々は,分散エッジセンサのネットワークとオブジェクトレベルの情報からなる多視点3次元意味マッピングシステムを拡張した。
提案手法は,数cm以内でのポーズ推定と,実験室環境におけるセンサネットワークを用いた実環境実験により,Behaveデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-11-21T11:13:08Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。