論文の概要: ABO: Dataset and Benchmarks for Real-World 3D Object Understanding
- arxiv url: http://arxiv.org/abs/2110.06199v1
- Date: Tue, 12 Oct 2021 17:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 13:33:23.972015
- Title: ABO: Dataset and Benchmarks for Real-World 3D Object Understanding
- Title(参考訳): ABO:実世界の3Dオブジェクト理解のためのデータセットとベンチマーク
- Authors: Jasmine Collins, Shubham Goel, Achleshwar Luthra, Leon Xu, Kenan Deng,
Xi Zhang, Tomas F. Yago Vicente, Himanshu Arora, Thomas Dideriksen, Matthieu
Guillaumin, Jitendra Malik
- Abstract要約: Amazon-Berkeley Objects (ABO)は、製品イメージと実際の家庭用オブジェクトに対応する3Dモデルの大規模なデータセットである。
合成オブジェクトをトレーニングした単一ビュー3D再構成ネットワークにおいて,ABOを用いてドメインギャップを測定する。
また、ABOのマルチビュー画像を用いて、異なるカメラ視点に対する最先端のメトリック学習アプローチの堅牢性を測定する。
- 参考スコア(独自算出の注目度): 43.42504014918771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Amazon-Berkeley Objects (ABO), a new large-scale dataset of
product images and 3D models corresponding to real household objects. We use
this realistic, object-centric 3D dataset to measure the domain gap for
single-view 3D reconstruction networks trained on synthetic objects. We also
use multi-view images from ABO to measure the robustness of state-of-the-art
metric learning approaches to different camera viewpoints. Finally, leveraging
the physically-based rendering materials in ABO, we perform single- and
multi-view material estimation for a variety of complex, real-world geometries.
The full dataset is available for download at
https://amazon-berkeley-objects.s3.amazonaws.com/index.html.
- Abstract(参考訳): amazon-berkeley objects (abo) は,製品イメージと実家庭のオブジェクトに対応する3dモデルの新しい大規模データセットである。
この現実的なオブジェクト中心の3Dデータセットを用いて、合成オブジェクトでトレーニングされた単一ビュー3D再構成ネットワークの領域ギャップを測定する。
また、ABOのマルチビュー画像を用いて、さまざまなカメラ視点に対する最先端のメトリック学習アプローチの堅牢性を測定する。
最後に、ABOの物理ベースのレンダリング材料を利用して、様々な複雑な実世界の測地に対して、単視点および多視点の材料推定を行う。
完全なデータセットはhttps://amazon-berkeley-objects.s3.amazonaws.com/index.htmlでダウンロードできる。
関連論文リスト
- Category-level Object Detection, Pose Estimation and Reconstruction from Stereo Images [15.921719523588996]
既存の単分子法とRGB-D法は、欠落や深さの測定によるスケールの曖昧さに悩まされている。
本稿では,カテゴリーレベルの物体検出のための一段階的アプローチであるCoDERSを提案する。
私たちのデータセット、コード、デモはプロジェクトのページで公開されます。
論文 参考訳(メタデータ) (2024-07-09T15:59:03Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - OmniObject3D: Large-Vocabulary 3D Object Dataset for Realistic
Perception, Reconstruction and Generation [107.71752592196138]
OmniObject3Dを提案する。OmniObject3Dは,大規模で高品質な3Dオブジェクトを持つ大語彙の3Dオブジェクトデータセットである。
190のカテゴリーで6,000のスキャン対象からなり、一般的な2Dデータセットと共通クラスを共有する。
それぞれの3Dオブジェクトは、2Dと3Dの両方のセンサーでキャプチャされ、テクスチャメッシュ、ポイントクラウド、マルチビューレンダリング画像、複数の実写ビデオを提供する。
論文 参考訳(メタデータ) (2023-01-18T18:14:18Z) - HM3D-ABO: A Photo-realistic Dataset for Object-centric Multi-view 3D
Reconstruction [37.29140654256627]
本稿では、フォトリアリスティックなオブジェクト中心データセットHM3D-ABOを提案する。
リアルな屋内シーンとリアルなオブジェクトを構成することで構築される。
このデータセットは、カメラポーズ推定やノベルビュー合成といったタスクにも有用である。
論文 参考訳(メタデータ) (2022-06-24T16:02:01Z) - Common Objects in 3D: Large-Scale Learning and Evaluation of Real-life
3D Category Reconstruction [7.013794773659423]
3Dの共通オブジェクト(Common Objects in 3D)は、カメラのポーズと地上の真実の3Dポイントクラウドで注釈付けされたオブジェクトカテゴリの実際のマルチビューイメージを備えた大規模なデータセットである。
データセットには、50のMS-COCOカテゴリからオブジェクトをキャプチャする19,000近いビデオから、合計150万フレームが含まれている。
我々は、この新たなデータセットを利用して、いくつかの新しいビュー合成法とカテゴリ中心の3D再構成法に関する、最初の大規模"in-the-wild"評価を行う。
論文 参考訳(メタデータ) (2021-09-01T17:59:05Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z) - Objectron: A Large Scale Dataset of Object-Centric Videos in the Wild
with Pose Annotations [0.0]
3Dオブジェクト検出の最先端を前進させるために、Objectronデータセットを紹介します。
データセットには、9つのカテゴリのポーズアノテーションを備えたオブジェクト中心の短いビデオが含まれ、14,819の注釈付きビデオに400万の注釈付き画像が含まれています。
論文 参考訳(メタデータ) (2020-12-18T00:34:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。