論文の概要: LayoutMP3D: Layout Annotation of Matterport3D
- arxiv url: http://arxiv.org/abs/2003.13516v1
- Date: Mon, 30 Mar 2020 14:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:03:16.649306
- Title: LayoutMP3D: Layout Annotation of Matterport3D
- Title(参考訳): layoutmp3d: matterport3dのレイアウトアノテーション
- Authors: Fu-En Wang, Yu-Hsuan Yeh, Min Sun, Wei-Chen Chiu, Yi-Hsuan Tsai
- Abstract要約: Matterport3Dデータセットは、当初提供されていた深度マップ基底真理と共に検討し、さらにMatterport3Dのサブセットからレイアウト基底真理のアノテーションを公開します。
私たちのデータセットはレイアウト情報と深度情報の両方を提供しており、両方のキューを統合することで環境を探索する機会を提供します。
- 参考スコア(独自算出の注目度): 59.11106101006007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring the information of 3D layout from a single equirectangular panorama
is crucial for numerous applications of virtual reality or robotics (e.g.,
scene understanding and navigation). To achieve this, several datasets are
collected for the task of 360 layout estimation. To facilitate the learning
algorithms for autonomous systems in indoor scenarios, we consider the
Matterport3D dataset with their originally provided depth map ground truths and
further release our annotations for layout ground truths from a subset of
Matterport3D. As Matterport3D contains accurate depth ground truths from
time-of-flight (ToF) sensors, our dataset provides both the layout and depth
information, which enables the opportunity to explore the environment by
integrating both cues.
- Abstract(参考訳): 単一の正方形パノラマから3Dレイアウトに関する情報を推測することは、仮想現実やロボット工学(シーン理解やナビゲーションなど)の多くの応用に不可欠である。
これを実現するために、360度レイアウト推定のタスクのために、いくつかのデータセットが収集される。
屋内シナリオにおける自律型システムの学習アルゴリズムを容易にするために,当初提供されていた深度マップ基底真理を用いてMatterport3Dデータセットを考察し,さらにMatterport3Dのサブセットからレイアウト基底真理のアノテーションをリリースする。
Matterport3Dには、飛行時間(ToF)センサーからの正確な深度グラウンドの真実が含まれているため、我々のデータセットは、レイアウト情報と深度情報の両方を提供する。
関連論文リスト
- Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Object-level 3D Semantic Mapping using a Network of Smart Edge Sensors [25.393382192511716]
我々は,分散エッジセンサのネットワークとオブジェクトレベルの情報からなる多視点3次元意味マッピングシステムを拡張した。
提案手法は,数cm以内でのポーズ推定と,実験室環境におけるセンサネットワークを用いた実環境実験により,Behaveデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-11-21T11:13:08Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - HM3D-ABO: A Photo-realistic Dataset for Object-centric Multi-view 3D
Reconstruction [37.29140654256627]
本稿では、フォトリアリスティックなオブジェクト中心データセットHM3D-ABOを提案する。
リアルな屋内シーンとリアルなオブジェクトを構成することで構築される。
このデータセットは、カメラポーズ推定やノベルビュー合成といったタスクにも有用である。
論文 参考訳(メタデータ) (2022-06-24T16:02:01Z) - Monocular Spherical Depth Estimation with Explicitly Connected Weak
Layout Cues [27.15511982413305]
幾何的視覚(360V)データセットを生成し、複数のモジュラリティ、多視点ステレオデータ、そして、自動的に弱レイアウトキューを生成する。
我々は、深さに基づくレイアウトの再構築とレイアウトに基づく深さの注意に頼り、両方のタスクにまたがるパフォーマンスの向上を示す。
360度カメラで部屋をスキャンすることで、ファクシブルで素早く3Dスキャンする機会が生まれる。
論文 参考訳(メタデータ) (2022-06-22T20:10:45Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z) - Stereo Object Matching Network [78.35697025102334]
本稿では,画像からの2次元コンテキスト情報と3次元オブジェクトレベル情報の両方を利用するステレオオブジェクトマッチング手法を提案する。
コストボリューム空間における3次元オブジェクト性を扱うための新しい方法として, 選択的サンプリング (RoISelect) と 2D-3D 融合がある。
論文 参考訳(メタデータ) (2021-03-23T12:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。