論文の概要: 3D-FUTURE: 3D Furniture shape with TextURE
- arxiv url: http://arxiv.org/abs/2009.09633v1
- Date: Mon, 21 Sep 2020 06:26:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:59:07.779330
- Title: 3D-FUTURE: 3D Furniture shape with TextURE
- Title(参考訳): 3d-future:テクスチャ付き3d家具
- Authors: Huan Fu, Rongfei Jia, Lin Gao, Mingming Gong, Binqiang Zhao, Steve
Maybank, Dacheng Tao
- Abstract要約: TextUre(3D-Future)による3D家具形状: 家庭シナリオにおける3D家具形状のリッチで大規模リポジトリ。
この技術レポートの時点で、3D-FUTUREは、5000部屋のクリーンでリアルな合成画像20,240枚を含んでいる。
高解像度のテクスチャを備えた家具には、9,992のユニークな3Dインスタンスがある。
- 参考スコア(独自算出の注目度): 100.62519619022679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 3D CAD shapes in current 3D benchmarks are mostly collected from online
model repositories. Thus, they typically have insufficient geometric details
and less informative textures, making them less attractive for comprehensive
and subtle research in areas such as high-quality 3D mesh and texture recovery.
This paper presents 3D Furniture shape with TextURE (3D-FUTURE): a
richly-annotated and large-scale repository of 3D furniture shapes in the
household scenario. At the time of this technical report, 3D-FUTURE contains
20,240 clean and realistic synthetic images of 5,000 different rooms. There are
9,992 unique detailed 3D instances of furniture with high-resolution textures.
Experienced designers developed the room scenes, and the 3D CAD shapes in the
scene are used for industrial production. Given the well-organized 3D-FUTURE,
we provide baseline experiments on several widely studied tasks, such as joint
2D instance segmentation and 3D object pose estimation, image-based 3D shape
retrieval, 3D object reconstruction from a single image, and texture recovery
for 3D shapes, to facilitate related future researches on our database.
- Abstract(参考訳): 現在の3dベンチマークの3dcad形状は、主にオンラインモデルリポジトリから収集される。
したがって、通常は幾何学的詳細が不十分で、情報的なテクスチャが少なくなるため、高品質な3Dメッシュやテクスチャリカバリといった分野の包括的かつ微妙な研究には魅力的ではない。
本稿では,3d家具形状とテクスチャ(3d-future):家庭シナリオにおける3d家具形状の多彩な大規模リポジトリについて述べる。
この技術レポートの時点で、3D-FUTUREは、5000部屋のクリーンでリアルな合成画像20,240枚を含んでいる。
高解像度のテクスチャを備えた家具には、9,992のユニークな3Dインスタンスがある。
経験豊富なデザイナーが部屋のシーンを開発し、シーン内の3DCAD形状は工業生産に使われている。
良好な3d未来を考えると,2dインスタンスセグメンテーションと3dオブジェクトポーズ推定,画像に基づく3d形状検索,1枚の画像からの3dオブジェクト再構成,および3d形状のテクスチャ復元など,広く研究されているタスクのベースライン実験を行い,関連研究の促進を図る。
関連論文リスト
- Uni3D: Exploring Unified 3D Representation at Scale [66.26710717073372]
大規模に統一された3次元表現を探索する3次元基礎モデルであるUni3Dを提案する。
Uni3Dは、事前にトレーニングされた2D ViTのエンドツーエンドを使用して、3Dポイントクラウド機能と画像テキスト整列機能とを一致させる。
強力なUni3D表現は、野生での3D絵画や検索などの応用を可能にする。
論文 参考訳(メタデータ) (2023-10-10T16:49:21Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - MobileBrick: Building LEGO for 3D Reconstruction on Mobile Devices [78.20154723650333]
高品質な3次元地下構造は3次元物体再構成評価に不可欠である。
本稿では,モバイルデバイスを用いた新しいマルチビューRGBDデータセットを提案する。
我々は,ハイエンド3Dスキャナーを使わずに,精密な3次元地下構造が得られる。
論文 参考訳(メタデータ) (2023-03-03T14:02:50Z) - OmniObject3D: Large-Vocabulary 3D Object Dataset for Realistic
Perception, Reconstruction and Generation [107.71752592196138]
OmniObject3Dを提案する。OmniObject3Dは,大規模で高品質な3Dオブジェクトを持つ大語彙の3Dオブジェクトデータセットである。
190のカテゴリーで6,000のスキャン対象からなり、一般的な2Dデータセットと共通クラスを共有する。
それぞれの3Dオブジェクトは、2Dと3Dの両方のセンサーでキャプチャされ、テクスチャメッシュ、ポイントクラウド、マルチビューレンダリング画像、複数の実写ビデオを提供する。
論文 参考訳(メタデータ) (2023-01-18T18:14:18Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - Voxel-based 3D Detection and Reconstruction of Multiple Objects from a
Single Image [22.037472446683765]
入力画像から3次元特徴持ち上げ演算子を用いて3次元シーン空間に整合した3次元ボクセル特徴の正規格子を学習する。
この3Dボクセルの特徴に基づき,新しいCenterNet-3D検出ヘッドは3D空間におけるキーポイント検出として3D検出を定式化する。
我々は、粗度ボキセル化や、新しい局所PCA-SDF形状表現を含む、効率的な粗度から細度の再構成モジュールを考案する。
論文 参考訳(メタデータ) (2021-11-04T18:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。