論文の概要: DreamPolisher: Towards High-Quality Text-to-3D Generation via Geometric Diffusion
- arxiv url: http://arxiv.org/abs/2403.17237v1
- Date: Mon, 25 Mar 2024 22:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 19:16:39.638945
- Title: DreamPolisher: Towards High-Quality Text-to-3D Generation via Geometric Diffusion
- Title(参考訳): DreamPolisher: 幾何学的拡散による高品質テキスト・ツー・3D生成を目指して
- Authors: Yuanze Lin, Ronald Clark, Philip Torr,
- Abstract要約: 幾何学的ガイダンスを用いた新しいガウス分割法であるDreamPolisherを提案する。
我々は、テキスト記述から、横断的な一貫性と複雑な詳細を学びます。
- 参考スコア(独自算出の注目度): 25.392909885188676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DreamPolisher, a novel Gaussian Splatting based method with geometric guidance, tailored to learn cross-view consistency and intricate detail from textual descriptions. While recent progress on text-to-3D generation methods have been promising, prevailing methods often fail to ensure view-consistency and textural richness. This problem becomes particularly noticeable for methods that work with text input alone. To address this, we propose a two-stage Gaussian Splatting based approach that enforces geometric consistency among views. Initially, a coarse 3D generation undergoes refinement via geometric optimization. Subsequently, we use a ControlNet driven refiner coupled with the geometric consistency term to improve both texture fidelity and overall consistency of the generated 3D asset. Empirical evaluations across diverse textual prompts spanning various object categories demonstrate the efficacy of DreamPolisher in generating consistent and realistic 3D objects, aligning closely with the semantics of the textual instructions.
- Abstract(参考訳): 本稿では,幾何学的ガイダンスを付加した新しいガウススティング法であるDreamPolisherについて紹介する。
近年, テキスト・ツー・3D生成手法の進歩が期待されているが, 一般的な手法では, 表示の一貫性とテクスチュラル・リッチネスの確保に失敗することが多い。
この問題はテキスト入力のみを扱うメソッドでは特に顕著になる。
これを解決するために,ビュー間の幾何学的整合性を実現する2段階のガウス・スプレイティング・アプローチを提案する。
当初、粗い3D生成は幾何最適化によって洗練されている。
その後,制御ネット駆動型精錬器と幾何整合項を組み合わせることで,生成した3Dアセットのテクスチャの忠実度と全体的な整合性を改善する。
さまざまなオブジェクトカテゴリにまたがる多様なテキストプロンプトに対する実証的な評価は、一貫したリアルな3Dオブジェクトを生成する上でドリームポーリッシャーの有効性を示し、テキストインストラクションのセマンティクスと密接に一致している。
関連論文リスト
- Deep Geometric Moments Promote Shape Consistency in Text-to-3D Generation [27.43973967994717]
MT3Dは高忠実度3Dオブジェクトを利用して視点バイアスを克服するテキスト・ツー・3D生成モデルである。
生成した2次元画像が基本形状と構造を保持することを保証するために,高品質な3次元モデルから導出される深度マップを制御信号として利用する。
3Dアセットから幾何学的詳細を取り入れることで、MT3Dは多様で幾何学的に一貫したオブジェクトを作成することができる。
論文 参考訳(メタデータ) (2024-08-12T06:25:44Z) - Invisible Stitch: Generating Smooth 3D Scenes with Depth Inpainting [75.7154104065613]
本稿では,3次元融合過程を学習するために,教師の蒸留と自己学習によって訓練された新しい深度補完モデルを提案する。
また,地上の真理幾何に基づくシーン生成手法のベンチマーク手法も導入した。
論文 参考訳(メタデータ) (2024-04-30T17:59:40Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - ControlDreamer: Blending Geometry and Style in Text-to-3D [34.92628800597151]
我々は、慎重にキュレートされたテキストコーパスからデータセットに基づいて訓練された、新しい深度対応多視点拡散モデルであるMulti-view ControlNetを紹介する。
マルチビューコントロールネットは、2段階のパイプラインであるControlDreamerに統合され、テキストガイドによるスタイリングされた3Dモデルの生成を可能にします。
論文 参考訳(メタデータ) (2023-12-02T13:04:54Z) - MetaDreamer: Efficient Text-to-3D Creation With Disentangling Geometry
and Texture [1.5601951993287981]
リッチな2Dおよび3D事前知識を活用する2段階最適化アプローチであるMetaDreammerを紹介する。
第一段階では、3Dオブジェクトの多視点整合性と精度を確保するため、幾何学的表現の最適化に重点を置いている。
第2段階では、幾何学の微調整とテクスチャの最適化に集中し、より洗練された3Dオブジェクトを実現する。
論文 参考訳(メタデータ) (2023-11-16T11:35:10Z) - T$^3$Bench: Benchmarking Current Progress in Text-to-3D Generation [52.029698642883226]
テキストから3Dへの手法は、強力な事前学習拡散モデルを利用してNeRFを最適化する。
ほとんどの研究は、主観的なケーススタディとユーザ実験で結果を評価している。
最初の総合的なテキスト・ツー・3DベンチマークであるT$3$Benchを紹介する。
論文 参考訳(メタデータ) (2023-10-04T17:12:18Z) - Text-to-3D using Gaussian Splatting [18.163413810199234]
本稿では,最新の最先端表現であるガウススプラッティングをテキストから3D生成に適用する新しい手法であるGSGENを提案する。
GSGENは、高品質な3Dオブジェクトを生成し、ガウススティングの明示的な性質を活用することで既存の欠点に対処することを目的としている。
我々の手法は繊細な細部と正確な形状で3Dアセットを生成することができる。
論文 参考訳(メタデータ) (2023-09-28T16:44:31Z) - Chasing Consistency in Text-to-3D Generation from a Single Image [35.60887743544786]
一つの画像から意味的・幾何学的・飽和的・持続的テキスト・ツー・3D生成のための3段階のフレームワークであるConsist3Dを提案する。
具体的には、セマンティックエンコーディングステージは、ビューと推定から独立してトークンを学習し、セマンティック一貫性とロバスト性を促進する。
幾何符号化段階は、新しい視点推定の下で包括的幾何学的制約と再構成的制約で別のトークンを学習し、過剰適合を減らし、幾何整合を奨励する。
論文 参考訳(メタデータ) (2023-09-07T09:50:48Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。