論文の概要: Objaverse: A Universe of Annotated 3D Objects
- arxiv url: http://arxiv.org/abs/2212.08051v1
- Date: Thu, 15 Dec 2022 18:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 16:15:05.647681
- Title: Objaverse: A Universe of Annotated 3D Objects
- Title(参考訳): Objaverse:アノテーション付き3Dオブジェクトの宇宙
- Authors: Matt Deitke, Dustin Schwenk, Jordi Salvador, Luca Weihs, Oscar Michel,
Eli VanderBilt, Ludwig Schmidt, Kiana Ehsani, Aniruddha Kembhavi, Ali Farhadi
- Abstract要約: 800K以上の(そして成長する)3Dモデルと記述タグ,キャプション,アニメーションを備えたオブジェクトの大規模なデータセットであるAverse 1.0を提示する。
多様な3Dモデルのトレーニング、LVISベンチマークでのテールカテゴリセグメンテーションの改善、エンボディードビジョンモデルのためのオープン語彙オブジェクトナビゲーションモデルのトレーニング、そしてビジョンモデルのロバストネス分析のための新しいベンチマークを作成する。
- 参考スコア(独自算出の注目度): 53.2537614157313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Massive data corpora like WebText, Wikipedia, Conceptual Captions,
WebImageText, and LAION have propelled recent dramatic progress in AI. Large
neural models trained on such datasets produce impressive results and top many
of today's benchmarks. A notable omission within this family of large-scale
datasets is 3D data. Despite considerable interest and potential applications
in 3D vision, datasets of high-fidelity 3D models continue to be mid-sized with
limited diversity of object categories. Addressing this gap, we present
Objaverse 1.0, a large dataset of objects with 800K+ (and growing) 3D models
with descriptive captions, tags, and animations. Objaverse improves upon
present day 3D repositories in terms of scale, number of categories, and in the
visual diversity of instances within a category. We demonstrate the large
potential of Objaverse via four diverse applications: training generative 3D
models, improving tail category segmentation on the LVIS benchmark, training
open-vocabulary object-navigation models for Embodied AI, and creating a new
benchmark for robustness analysis of vision models. Objaverse can open new
directions for research and enable new applications across the field of AI.
- Abstract(参考訳): WebText、Wikipedia、Conceptual Captions、WebImageText、LAIONといった膨大なデータコーパスは、AIの最近の劇的な進歩を推進している。
このようなデータセットでトレーニングされた大規模なニューラルモデルは印象的な結果をもたらし、今日のベンチマークの上位にランクインしている。
この大規模なデータセットのファミリーにおける注目すべき欠落は、3dデータである。
3Dビジョンにおけるかなりの関心と潜在的な応用にもかかわらず、高忠実度3Dモデルのデータセットは、オブジェクトカテゴリの多様性が限定されている中規模のままである。
このギャップに対処するため、800K以上の(そして成長する)3Dモデルを持つオブジェクトの大規模なデータセットであるObjaverse 1.0を紹介します。
Objaverseは、現在の3Dリポジトリにおいて、スケール、カテゴリ数、カテゴリ内のインスタンスの視覚的多様性の観点から改善されている。
生成3Dモデルのトレーニング、LVISベンチマークのテールカテゴリセグメンテーションの改善、Embodied AIのためのオープン語彙オブジェクトナビゲーションモデルのトレーニング、ビジョンモデルの堅牢性分析のための新しいベンチマークの作成、の4つの応用を通じて、Objaverseの大きな可能性を示す。
Objaverseは研究のための新しい方向を開くことができ、AIの分野で新しいアプリケーションを可能にする。
関連論文リスト
- Implicit-Zoo: A Large-Scale Dataset of Neural Implicit Functions for 2D Images and 3D Scenes [65.22070581594426]
Implicit-Zoo"は、この分野の研究と開発を容易にするために、数千のGPUトレーニング日を必要とする大規模なデータセットである。
1)トランスモデルのトークン位置を学習すること、(2)NeRFモデルに関して直接3Dカメラが2D画像のポーズを取ること、である。
これにより、画像分類、セマンティックセグメンテーション、および3次元ポーズ回帰の3つのタスクすべてのパフォーマンスが向上し、研究のための新たな道が開けることになる。
論文 参考訳(メタデータ) (2024-06-25T10:20:44Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance
Fields [73.97131748433212]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - Objaverse-XL: A Universe of 10M+ 3D Objects [58.02773375519506]
Averse-XLは1000万以上の3Dオブジェクトからなるデータセットである。
1億枚以上のマルチビューレンダリング画像を利用して、新しい視点でZero123をトレーニングすることにより、ゼロショットの強力な一般化能力が得られることを示す。
論文 参考訳(メタデータ) (2023-07-11T17:57:40Z) - SketchANIMAR: Sketch-based 3D Animal Fine-Grained Retrieval [17.286320102183502]
我々は,スケッチクエリを用いたデータセットから関連する3D動物モデルを取得することに焦点を当てた,新しいSHRECチャレンジトラックを紹介した。
本コンテストでは,複雑かつ詳細なスケッチに基づいて,参加者が3Dモデルを取得する必要がある。
8つのチームから満足のいく結果が得られ、204回が実行されます。
論文 参考訳(メタデータ) (2023-04-12T09:40:38Z) - Common Objects in 3D: Large-Scale Learning and Evaluation of Real-life
3D Category Reconstruction [7.013794773659423]
3Dの共通オブジェクト(Common Objects in 3D)は、カメラのポーズと地上の真実の3Dポイントクラウドで注釈付けされたオブジェクトカテゴリの実際のマルチビューイメージを備えた大規模なデータセットである。
データセットには、50のMS-COCOカテゴリからオブジェクトをキャプチャする19,000近いビデオから、合計150万フレームが含まれている。
我々は、この新たなデータセットを利用して、いくつかの新しいビュー合成法とカテゴリ中心の3D再構成法に関する、最初の大規模"in-the-wild"評価を行う。
論文 参考訳(メタデータ) (2021-09-01T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。