論文の概要: Eval3D: Interpretable and Fine-grained Evaluation for 3D Generation
- arxiv url: http://arxiv.org/abs/2504.18509v1
- Date: Fri, 25 Apr 2025 17:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.855558
- Title: Eval3D: Interpretable and Fine-grained Evaluation for 3D Generation
- Title(参考訳): Eval3D:3次元生成の解釈と微粒化評価
- Authors: Shivam Duggal, Yushi Hu, Oscar Michel, Aniruddha Kembhavi, William T. Freeman, Noah A. Smith, Ranjay Krishna, Antonio Torralba, Ali Farhadi, Wei-Chiu Ma,
- Abstract要約: 生成した3D資産の品質を忠実に評価できる細粒度で解釈可能な評価ツールであるEval3Dを紹介する。
我々のキーとなる観察は、意味論や幾何学的整合性といった3D生成の多くの望ましい特性を効果的に捉えられることである。
以前の研究と比較すると、Eval3Dはピクセル単位での測定を行い、正確な3D空間フィードバックを可能にし、人間の判断とより密に一致させる。
- 参考スコア(独自算出の注目度): 134.53804996949287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the unprecedented progress in the field of 3D generation, current systems still often fail to produce high-quality 3D assets that are visually appealing and geometrically and semantically consistent across multiple viewpoints. To effectively assess the quality of the generated 3D data, there is a need for a reliable 3D evaluation tool. Unfortunately, existing 3D evaluation metrics often overlook the geometric quality of generated assets or merely rely on black-box multimodal large language models for coarse assessment. In this paper, we introduce Eval3D, a fine-grained, interpretable evaluation tool that can faithfully evaluate the quality of generated 3D assets based on various distinct yet complementary criteria. Our key observation is that many desired properties of 3D generation, such as semantic and geometric consistency, can be effectively captured by measuring the consistency among various foundation models and tools. We thus leverage a diverse set of models and tools as probes to evaluate the inconsistency of generated 3D assets across different aspects. Compared to prior work, Eval3D provides pixel-wise measurement, enables accurate 3D spatial feedback, and aligns more closely with human judgments. We comprehensively evaluate existing 3D generation models using Eval3D and highlight the limitations and challenges of current models.
- Abstract(参考訳): 3D生成の分野では前例のない進歩があったが、現在のシステムでは、視覚的に魅力的で、幾何学的に、また複数の視点で意味的に整合した高品質な3Dアセットを作成できないことが多い。
生成した3Dデータの品質を効果的に評価するには、信頼性の高い3D評価ツールが必要である。
残念ながら、既存の3D評価指標は、しばしば生成された資産の幾何学的品質を見落としているか、単に粗い評価のためにブラックボックスのマルチモーダルな大言語モデルに依存しているだけである。
本稿では,様々な異なる相補的基準に基づいて生成した3Dアセットの品質を忠実に評価できる,細粒度で解釈可能な評価ツールであるEval3Dを紹介する。
我々のキーとなる観察は、意味的・幾何学的整合性などの3次元生成の多くの望ましい特性は、様々な基礎モデルやツール間の整合性を測定することで効果的に捉えることができるということである。
そこで我々は、様々な側面で生成された3Dアセットの不整合を評価するために、さまざまなモデルやツールをプローブとして活用する。
以前の研究と比較すると、Eval3Dはピクセル単位での測定を行い、正確な3D空間フィードバックを可能にし、人間の判断とより密に一致させる。
既存の3D生成モデルをEval3Dを用いて総合的に評価し,現行モデルの限界と課題を強調した。
関連論文リスト
- 3DGen-Bench: Comprehensive Benchmark Suite for 3D Generative Models [94.48803082248872]
3D世代は急速に進歩しているが、3D評価の開発はペースを保っていない。
大規模人選好データセット3DGen-Benchを開発した。
次に、CLIPベースのスコアモデルである3DGen-ScoreとMLLMベースの自動評価器である3DGen-Evalを訓練する。
論文 参考訳(メタデータ) (2025-03-27T17:53:00Z) - 3DGCQA: A Quality Assessment Database for 3D AI-Generated Contents [50.730468291265886]
本稿では,テキスト・ツー・3D生成手法を用いて構築した新しい3DGC品質評価データセットである3DGCQAを提案する。
可視化によって、生成された3DGCに6つの共通の歪みカテゴリが存在することが直感的に明らかになる。
主観的品質評価は評価者によって行われ、その評価は異なる生成方法における品質の顕著な変動を示す。
いくつかの客観的品質評価アルゴリズムが3DGCQAデータセットでテストされている。
論文 参考訳(メタデータ) (2024-09-11T12:47:40Z) - Deep Geometric Moments Promote Shape Consistency in Text-to-3D Generation [27.43973967994717]
MT3Dは高忠実度3Dオブジェクトを利用して視点バイアスを克服するテキスト・ツー・3D生成モデルである。
3Dアセットから幾何学的詳細を取り入れることで、MT3Dは多様で幾何学的に一貫したオブジェクトを作成することができる。
論文 参考訳(メタデータ) (2024-08-12T06:25:44Z) - Retrieval-Augmented Score Distillation for Text-to-3D Generation [30.57225047257049]
テキストから3D生成における検索に基づく品質向上のための新しいフレームワークを提案する。
我々はReDreamが幾何整合性を高めて優れた品質を示すことを示すために広範な実験を行った。
論文 参考訳(メタデータ) (2024-02-05T12:50:30Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - SOGDet: Semantic-Occupancy Guided Multi-view 3D Object Detection [19.75965521357068]
本稿では,SOGDet(Semantic-Occupancy Guided Multi-view Object Detection)と呼ばれる新しい手法を提案する。
以上の結果から,SOGDet は nuScenes Detection Score (NDS) と平均平均精度 (mAP) の3つのベースライン法の性能を一貫して向上させることがわかった。
これは、3Dオブジェクト検出と3Dセマンティック占有の組み合わせが、3D環境をより包括的に認識し、より堅牢な自律運転システムの構築を支援することを示唆している。
論文 参考訳(メタデータ) (2023-08-26T07:38:21Z) - Pushing the Limits of 3D Shape Generation at Scale [65.24420181727615]
我々は、前例のない次元に拡大することで、3次元形状生成において画期的なブレークスルーを示す。
現在までに最大の3次元形状生成モデルとしてArgus-3Dが確立されている。
論文 参考訳(メタデータ) (2023-06-20T13:01:19Z) - InOR-Net: Incremental 3D Object Recognition Network for Point Cloud
Representation [51.121731449575776]
我々は,新しい3Dオブジェクトのクラスを連続的に認識するインクリメンタル3Dオブジェクト認識ネットワーク(InOR-Net)を開発した。
具体的には、各クラスの特徴的な3次元特性を持つ局所幾何学的構造を推論するために、カテゴリー誘導幾何学的推論を提案する。
そこで我々は,従来の3Dオブジェクトのクラスにおける破滅的な忘れを克服するために,各クラス内のどの3次元幾何学的特徴が有用であるかを識別する,新しい批評家による幾何学的注意機構を提案する。
論文 参考訳(メタデータ) (2023-02-20T10:30:16Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。