論文の概要: DreamCS: Geometry-Aware Text-to-3D Generation with Unpaired 3D Reward Supervision
- arxiv url: http://arxiv.org/abs/2506.09814v1
- Date: Wed, 11 Jun 2025 14:54:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:03.07032
- Title: DreamCS: Geometry-Aware Text-to-3D Generation with Unpaired 3D Reward Supervision
- Title(参考訳): DreamCS: 3Dリワードによる幾何学的テキスト・ツー・3D生成
- Authors: Xiandong Zou, Ruihao Xia, Hongsong Wang, Pan Zhou,
- Abstract要約: 3D-MeshPrefは、最初の大規模な未ペアの3D嗜好データセットである。
RewardCSは、3D-MeshPrefのデータを直接トレーニングした最初の報酬モデルである。
DreamCSはRewardCSをテキストから3Dパイプラインに統合する。
- 参考スコア(独自算出の注目度): 44.570219114010165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While text-to-3D generation has attracted growing interest, existing methods often struggle to produce 3D assets that align well with human preferences. Current preference alignment techniques for 3D content typically rely on hardly-collected preference-paired multi-view 2D images to train 2D reward models, when then guide 3D generation -- leading to geometric artifacts due to their inherent 2D bias. To address these limitations, we construct 3D-MeshPref, the first large-scale unpaired 3D preference dataset, featuring diverse 3D meshes annotated by a large language model and refined by human evaluators. We then develop RewardCS, the first reward model trained directly on unpaired 3D-MeshPref data using a novel Cauchy-Schwarz divergence objective, enabling effective learning of human-aligned 3D geometric preferences without requiring paired comparisons. Building on this, we propose DreamCS, a unified framework that integrates RewardCS into text-to-3D pipelines -- enhancing both implicit and explicit 3D generation with human preference feedback. Extensive experiments show DreamCS outperforms prior methods, producing 3D assets that are both geometrically faithful and human-preferred. Code and models will be released publicly.
- Abstract(参考訳): テキストから3D生成は、関心が高まりつつあるが、既存の方法は、人間の好みに合う3Dアセットを作るのに苦労することが多い。
3Dコンテンツの現在の嗜好アライメント技術は、通常、2D報酬モデルをトレーニングするために、選択の少ないマルチビュー2Dイメージに依存している。
これらの制約に対処するため,我々は,大規模言語モデルで注釈付けされた多種多様な3Dメッシュを特徴とする,最初の大規模未使用の3D嗜好データセットである3D-MeshPrefを構築した。
そこで我々は,新しいコーシー=シュワルツ発散目標を用いて,未ペアの3D-MeshPrefデータを直接トレーニングした最初の報酬モデルであるRewardCSを開発し,ペア比較を必要とせず,人間の整合した3D幾何嗜好を効果的に学習することを可能にする。
これに基づいて、RewardCSをテキストから3Dパイプラインに統合する統合フレームワークであるDreamCSを提案する。
大規模な実験では、DreamCSが以前の手法よりも優れており、幾何学的に忠実で人間に好まれる3Dアセットが生み出されている。
コードとモデルは公開されます。
関連論文リスト
- Deep Geometric Moments Promote Shape Consistency in Text-to-3D Generation [27.43973967994717]
MT3Dは高忠実度3Dオブジェクトを利用して視点バイアスを克服するテキスト・ツー・3D生成モデルである。
3Dアセットから幾何学的詳細を取り入れることで、MT3Dは多様で幾何学的に一貫したオブジェクトを作成することができる。
論文 参考訳(メタデータ) (2024-08-12T06:25:44Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - Retrieval-Augmented Score Distillation for Text-to-3D Generation [30.57225047257049]
テキストから3D生成における検索に基づく品質向上のための新しいフレームワークを提案する。
我々はReDreamが幾何整合性を高めて優れた品質を示すことを示すために広範な実験を行った。
論文 参考訳(メタデータ) (2024-02-05T12:50:30Z) - Sherpa3D: Boosting High-Fidelity Text-to-3D Generation via Coarse 3D
Prior [52.44678180286886]
2次元拡散モデルでは、3次元データなしで優れた一般化と豊富な詳細を実現する蒸留手法が見つかる。
提案するSherpa3Dは,高忠実度,一般化性,幾何整合性を同時に実現する新しいテキスト・ツー・3Dフレームワークである。
論文 参考訳(メタデータ) (2023-12-11T18:59:18Z) - Magic123: One Image to High-Quality 3D Object Generation Using Both 2D
and 3D Diffusion Priors [104.79392615848109]
Magic123は、高品質でテクスチャ化された3Dメッシュのための、2段階の粗大なアプローチである。
最初の段階では、粗い幾何学を生成するために、神経放射場を最適化する。
第2段階では、視覚的に魅力的なテクスチャを持つ高分解能メッシュを生成するために、メモリ効率のよい微分可能なメッシュ表現を採用する。
論文 参考訳(メタデータ) (2023-06-30T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。