論文の概要: 3DGen-Bench: Comprehensive Benchmark Suite for 3D Generative Models
- arxiv url: http://arxiv.org/abs/2503.21745v1
- Date: Thu, 27 Mar 2025 17:53:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:52:21.138739
- Title: 3DGen-Bench: Comprehensive Benchmark Suite for 3D Generative Models
- Title(参考訳): 3DGen-Bench: 3D生成モデルのための総合ベンチマークスイート
- Authors: Yuhan Zhang, Mengchen Zhang, Tong Wu, Tengfei Wang, Gordon Wetzstein, Dahua Lin, Ziwei Liu,
- Abstract要約: 3D世代は急速に進歩しているが、3D評価の開発はペースを保っていない。
大規模人選好データセット3DGen-Benchを開発した。
次に、CLIPベースのスコアモデルである3DGen-ScoreとMLLMベースの自動評価器である3DGen-Evalを訓練する。
- 参考スコア(独自算出の注目度): 94.48803082248872
- License:
- Abstract: 3D generation is experiencing rapid advancements, while the development of 3D evaluation has not kept pace. How to keep automatic evaluation equitably aligned with human perception has become a well-recognized challenge. Recent advances in the field of language and image generation have explored human preferences and showcased respectable fitting ability. However, the 3D domain still lacks such a comprehensive preference dataset over generative models. To mitigate this absence, we develop 3DGen-Arena, an integrated platform in a battle manner. Then, we carefully design diverse text and image prompts and leverage the arena platform to gather human preferences from both public users and expert annotators, resulting in a large-scale multi-dimension human preference dataset 3DGen-Bench. Using this dataset, we further train a CLIP-based scoring model, 3DGen-Score, and a MLLM-based automatic evaluator, 3DGen-Eval. These two models innovatively unify the quality evaluation of text-to-3D and image-to-3D generation, and jointly form our automated evaluation system with their respective strengths. Extensive experiments demonstrate the efficacy of our scoring model in predicting human preferences, exhibiting a superior correlation with human ranks compared to existing metrics. We believe that our 3DGen-Bench dataset and automated evaluation system will foster a more equitable evaluation in the field of 3D generation, further promoting the development of 3D generative models and their downstream applications.
- Abstract(参考訳): 3D世代は急速に進歩しているが、3D評価の開発はペースを保っていない。
人間の知覚と等しく一致した自動評価の維持は、よく認識される課題となっている。
言語と画像生成の分野での最近の進歩は人間の嗜好を探求し、優れた適合能力を示してきた。
しかし、3Dドメインには生成モデルよりも包括的な嗜好データセットがない。
この不在を緩和するため,戦闘方式の統合プラットフォームである3DGen-Arenaを開発した。
そして、多種多様なテキストや画像のプロンプトを慎重に設計し、アリーナプラットフォームを活用して、公開ユーザと専門家アノテータの両方から人間の嗜好を収集し、3DGen-Benchを大規模に構築する。
このデータセットを用いて、CLIPベースのスコアモデルである3DGen-ScoreとMLLMベースの自動評価器である3DGen-Evalをさらに訓練する。
これら2つのモデルは,テキスト・ツー・3Dと画像・ツー・3D生成の品質評価を革新的に統一し,それぞれの強度で自動評価システムを構築する。
大規模な実験では,評価モデルが人間の嗜好を予測する上で有効であることを示し,既存の指標と比較して人格との相関が優れていることを示した。
我々は、3DGen-Benchデータセットと自動評価システムにより、3D生成分野におけるより公平な評価が促進され、3D生成モデルとその下流アプリケーションの開発が促進されると考えている。
関連論文リスト
- LucidDreamer: Towards High-Fidelity Text-to-3D Generation via Interval
Score Matching [33.696757740830506]
テキストから3D生成の最近の進歩は、将来性を示している。
多くの手法がSDS(Score Distillation Sampling)に基づいている。
オーバー・スムーシングに対抗するために,ISM(Interval Score Matching)を提案する。
論文 参考訳(メタデータ) (2023-11-19T09:59:09Z) - Get3DHuman: Lifting StyleGAN-Human into a 3D Generative Model using
Pixel-aligned Reconstruction Priors [56.192682114114724]
Get3DHumanは、生成された結果のリアリズムと多様性を大幅に向上させる、新しい3Dヒューマンフレームワークである。
我々のキーとなる観察は、この3Dジェネレータは、人間の2Dジェネレータと3Dコンストラクタを通して学んだ、人間関係の先行技術から利益を得ることができるということだ。
論文 参考訳(メタデータ) (2023-02-02T15:37:46Z) - Objaverse: A Universe of Annotated 3D Objects [53.2537614157313]
800K以上の(そして成長する)3Dモデルと記述タグ,キャプション,アニメーションを備えたオブジェクトの大規模なデータセットであるAverse 1.0を提示する。
多様な3Dモデルのトレーニング、LVISベンチマークでのテールカテゴリセグメンテーションの改善、エンボディードビジョンモデルのためのオープン語彙オブジェクトナビゲーションモデルのトレーニング、そしてビジョンモデルのロバストネス分析のための新しいベンチマークを作成する。
論文 参考訳(メタデータ) (2022-12-15T18:56:53Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。