論文の概要: Objaverse++: Curated 3D Object Dataset with Quality Annotations
- arxiv url: http://arxiv.org/abs/2504.07334v1
- Date: Wed, 09 Apr 2025 23:29:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:23:36.461965
- Title: Objaverse++: Curated 3D Object Dataset with Quality Annotations
- Title(参考訳): Objaverse++: 品質アノテーションを備えた3Dオブジェクトデータセット
- Authors: Chendi Lin, Heshan Liu, Qunshu Lin, Zachary Bright, Shitao Tang, Yihui He, Minghao Liu, Ling Zhu, Cindy Le,
- Abstract要約: 本稿では,人間の専門家による詳細なアノテーションを付加した,逆のキュレートされたサブセットであるaverse++について述べる。
逆キュレーションは利用可能な3Dアセットコレクションとしては最大であるが、その実用性は低品質モデルの制限によって制限されている。
- 参考スコア(独自算出の注目度): 5.483023265209163
- License:
- Abstract: This paper presents Objaverse++, a curated subset of Objaverse enhanced with detailed attribute annotations by human experts. Recent advances in 3D content generation have been driven by large-scale datasets such as Objaverse, which contains over 800,000 3D objects collected from the Internet. Although Objaverse represents the largest available 3D asset collection, its utility is limited by the predominance of low-quality models. To address this limitation, we manually annotate 10,000 3D objects with detailed attributes, including aesthetic quality scores, texture color classifications, multi-object composition flags, transparency characteristics, etc. Then, we trained a neural network capable of annotating the tags for the rest of the Objaverse dataset. Through experiments and a user study on generation results, we demonstrate that models pre-trained on our quality-focused subset achieve better performance than those trained on the larger dataset of Objaverse in image-to-3D generation tasks. In addition, by comparing multiple subsets of training data filtered by our tags, our results show that the higher the data quality, the faster the training loss converges. These findings suggest that careful curation and rich annotation can compensate for the raw dataset size, potentially offering a more efficient path to develop 3D generative models. We release our enhanced dataset of approximately 500,000 curated 3D models to facilitate further research on various downstream tasks in 3D computer vision. In the near future, we aim to extend our annotations to cover the entire Objaverse dataset.
- Abstract(参考訳): 本稿では,人間の専門家による詳細な属性アノテーションを付加したObjaverse++について述べる。
3Dコンテンツ生成の最近の進歩は、インターネットから収集された800,000以上の3Dオブジェクトを含むObjaverseのような大規模データセットによって推進されている。
Objaverseは利用可能な3Dアセットコレクションとしては最大だが、その実用性は低品質モデルの優位性によって制限されている。
この制限に対処するために、美的品質スコア、テクスチャカラー分類、多目的合成フラグ、透明性特性など、詳細な属性で1万個の3Dオブジェクトを手動で注釈付けする。
次に、Objaverseデータセットの残りの部分のタグに注釈を付けることができるニューラルネットワークを訓練した。
実験と生成結果に関するユーザスタディにより、画像から3D生成タスクにおいて、Objaverseの大規模データセットでトレーニングされたモデルよりも、品質重視サブセットで事前訓練されたモデルの方が優れたパフォーマンスが得られることを示した。
さらに、タグによってフィルタリングされたトレーニングデータの複数のサブセットを比較することで、データ品質が高いほど、トレーニング損失が収束することを示す。
これらの結果は、注意深いキュレーションとリッチアノテーションは、生のデータセットサイズを補うことができ、3D生成モデルを開発するためのより効率的な経路を提供する可能性があることを示唆している。
約50万個のキュレートされた3Dモデルの強化データセットを公開し、3Dコンピュータビジョンにおける様々な下流タスクのさらなる研究を促進する。
近い将来、Objaverseデータセット全体をカバーするためにアノテーションを拡張することを目指しています。
関連論文リスト
- Open-Vocabulary High-Resolution 3D (OVHR3D) Data Segmentation and Annotation Framework [1.1280113914145702]
本研究の目的は,3次元セグメンテーションタスクのための包括的で効率的なフレームワークの設計と開発である。
このフレームワークはGrounding DINOとSegment Any Modelを統合し、3Dメッシュによる2D画像レンダリングの強化によって強化される。
論文 参考訳(メタデータ) (2024-12-09T07:39:39Z) - Structured 3D Latents for Scalable and Versatile 3D Generation [28.672494137267837]
汎用的で高品質な3Dアセット作成のための新しい3D生成手法を提案する。
基本となるのは、異なる出力フォーマットへのデコードを可能にする、構造化されたLATent表現である。
これは、疎人口の少ない3Dグリッドと、強力な視覚基盤モデルから抽出された濃密な多視点視覚特徴を統合することで実現される。
論文 参考訳(メタデータ) (2024-12-02T13:58:38Z) - 3D Human Reconstruction in the Wild with Synthetic Data Using Generative Models [52.96248836582542]
本稿では,人間の画像とそれに対応する3Dメッシュアノテーションをシームレスに生成できるHumanWildという,最近の拡散モデルに基づく効果的なアプローチを提案する。
生成モデルを排他的に活用することにより,大規模な人体画像と高品質なアノテーションを生成し,実世界のデータ収集の必要性を解消する。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Objaverse-XL: A Universe of 10M+ 3D Objects [58.02773375519506]
Averse-XLは1000万以上の3Dオブジェクトからなるデータセットである。
1億枚以上のマルチビューレンダリング画像を利用して、新しい視点でZero123をトレーニングすることにより、ゼロショットの強力な一般化能力が得られることを示す。
論文 参考訳(メタデータ) (2023-07-11T17:57:40Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - Objaverse: A Universe of Annotated 3D Objects [53.2537614157313]
800K以上の(そして成長する)3Dモデルと記述タグ,キャプション,アニメーションを備えたオブジェクトの大規模なデータセットであるAverse 1.0を提示する。
多様な3Dモデルのトレーニング、LVISベンチマークでのテールカテゴリセグメンテーションの改善、エンボディードビジョンモデルのためのオープン語彙オブジェクトナビゲーションモデルのトレーニング、そしてビジョンモデルのロバストネス分析のための新しいベンチマークを作成する。
論文 参考訳(メタデータ) (2022-12-15T18:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。