論文の概要: A Real World Dataset for Multi-view 3D Reconstruction
- arxiv url: http://arxiv.org/abs/2203.11397v1
- Date: Tue, 22 Mar 2022 00:15:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 08:26:27.807575
- Title: A Real World Dataset for Multi-view 3D Reconstruction
- Title(参考訳): マルチビュー3次元再構成のための実世界データセット
- Authors: Rakesh Shrestha, Siqi Hu, Minghao Gou, Ziyuan Liu, Ping Tan
- Abstract要約: 日常のテーブルトップオブジェクトの371個の3Dモデルと,実世界のRGBと深度画像のデータセットを提示する。
私たちは主に、タスクに適切な実世界のベンチマークがないため、学習したマルチビューの3D再構成に注目し、データセットがそのギャップを埋めることを示す。
- 参考スコア(独自算出の注目度): 28.298548207213468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dataset of 371 3D models of everyday tabletop objects along with
their 320,000 real world RGB and depth images. Accurate annotations of camera
poses and object poses for each image are performed in a semi-automated fashion
to facilitate the use of the dataset for myriad 3D applications like shape
reconstruction, object pose estimation, shape retrieval etc. We primarily focus
on learned multi-view 3D reconstruction due to the lack of appropriate real
world benchmark for the task and demonstrate that our dataset can fill that
gap. The entire annotated dataset along with the source code for the annotation
tools and evaluation baselines will be made publicly available.
- Abstract(参考訳): 日常のテーブルトップオブジェクトの371個の3Dモデルと,実世界のRGBと深度画像のデータセットを提示する。
画像毎のカメラポーズとオブジェクトポーズの正確なアノテーションを半自動で実行し、形状再構成、オブジェクトポーズ推定、形状検索などの無数の3Dアプリケーションにデータセットを使用することを容易にする。
私たちは主に、タスクに適切な実世界のベンチマークがないため、学習したマルチビューの3D再構成に注目し、データセットがそのギャップを埋めることを示す。
アノテーションツールと評価ベースラインのソースコードとともに、アノテーション付きデータセット全体が公開される。
関連論文リスト
- Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - 3D Reconstruction of Objects in Hands without Real World 3D Supervision [12.70221786947807]
ハンドヘルドオブジェクトを再構築するためのモデル学習をスケールアップするために,3Dインスペクションを活用するモジュールを提案する。
具体的には、ビデオから多視点2Dマスクの監視を抽出し、形状収集から3次元形状の前兆を抽出する。
我々はこれらの間接的な3次元キューを用いて、単一のRGB画像から物体の3次元形状を予測する占有ネットワークを訓練する。
論文 参考訳(メタデータ) (2023-05-04T17:56:48Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - HM3D-ABO: A Photo-realistic Dataset for Object-centric Multi-view 3D
Reconstruction [37.29140654256627]
本稿では、フォトリアリスティックなオブジェクト中心データセットHM3D-ABOを提案する。
リアルな屋内シーンとリアルなオブジェクトを構成することで構築される。
このデータセットは、カメラポーズ推定やノベルビュー合成といったタスクにも有用である。
論文 参考訳(メタデータ) (2022-06-24T16:02:01Z) - ABO: Dataset and Benchmarks for Real-World 3D Object Understanding [43.42504014918771]
Amazon-Berkeley Objects (ABO)は、製品イメージと実際の家庭用オブジェクトに対応する3Dモデルの大規模なデータセットである。
合成オブジェクトをトレーニングした単一ビュー3D再構成ネットワークにおいて,ABOを用いてドメインギャップを測定する。
また、ABOのマルチビュー画像を用いて、異なるカメラ視点に対する最先端のメトリック学習アプローチの堅牢性を測定する。
論文 参考訳(メタデータ) (2021-10-12T17:52:42Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z) - Objectron: A Large Scale Dataset of Object-Centric Videos in the Wild
with Pose Annotations [0.0]
3Dオブジェクト検出の最先端を前進させるために、Objectronデータセットを紹介します。
データセットには、9つのカテゴリのポーズアノテーションを備えたオブジェクト中心の短いビデオが含まれ、14,819の注釈付きビデオに400万の注釈付き画像が含まれています。
論文 参考訳(メタデータ) (2020-12-18T00:34:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。