論文の概要: EucliDreamer: Fast and High-Quality Texturing for 3D Models with Stable
Diffusion Depth
- arxiv url: http://arxiv.org/abs/2311.15573v1
- Date: Mon, 27 Nov 2023 06:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:51:16.666004
- Title: EucliDreamer: Fast and High-Quality Texturing for 3D Models with Stable
Diffusion Depth
- Title(参考訳): EucliDreamer:安定拡散深さ3次元モデルのための高速かつ高品質なテクスチャ
- Authors: Cindy Le, Congrui Hetang, Ang Cao, Yihui He
- Abstract要約: 本稿では,テキストプロンプトと3Dメッシュを用いた3次元モデルのテクスチャ生成手法を提案する。
追加の深度情報を考慮し、スコア蒸留サンプリング(SDS)プロセスを実行する。
- 参考スコア(独自算出の注目度): 5.063217023748685
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a novel method to generate textures for 3D models given
text prompts and 3D meshes. Additional depth information is taken into account
to perform the Score Distillation Sampling (SDS) process [28] with depth
conditional Stable Diffusion [34]. We ran our model over the open-source
dataset Objaverse [7] and conducted a user study to compare the results with
those of various 3D texturing methods. We have shown that our model can
generate more satisfactory results and produce various art styles for the same
object. In addition, we achieved faster time when generating textures of
comparable quality. We also conduct thorough ablation studies of how different
factors may affect generation quality, including sampling steps, guidance
scale, negative prompts, data augmentation, elevation range, and alternatives
to SDS.
- Abstract(参考訳): 本稿では,テキストプロンプトと3Dメッシュを用いた3次元モデルのテクスチャ生成手法を提案する。
深度条件安定拡散[34]を伴うスコア蒸留サンプリング(SDS)プロセス[28]を実行するために、追加の深度情報を考慮に入れる。
我々は,オープンソースのデータセットObjaverse [7]上でモデルを動作させ,その結果を様々な3Dテクスチャ手法と比較した。
我々は,本モデルによりより満足な結果が得られ,同じオブジェクトに対して様々なアートスタイルが生成できることを実証した。
さらに、同等の品質のテクスチャを生成する場合、より高速な時間を実現しました。
また, サンプリングステップ, 誘導尺度, 負のプロンプト, データの増強, 上昇範囲, sdsの代替品など, 異なる要因が世代品質にどのように影響するかを徹底的に検討した。
関連論文リスト
- TexGen: Text-Guided 3D Texture Generation with Multi-view Sampling and Resampling [37.67373829836975]
テクスチャ生成のための新しい多視点サンプリングおよび再サンプリングフレームワークであるTexGenを提案する。
提案手法は,高精細度3次元オブジェクトに対して,高精細度で優れたテクスチャ品質を実現する。
また,テクスチャ生成技術は,テクスチャ編集にも適用可能である。
論文 参考訳(メタデータ) (2024-08-02T14:24:40Z) - VividDreamer: Towards High-Fidelity and Efficient Text-to-3D Generation [69.68568248073747]
拡散に基づく3次元生成タスクにおいて, ポーズ依存型連続蒸留サンプリング (PCDS) を提案する。
PCDSは拡散軌道内でポーズ依存整合関数を構築し、最小サンプリングステップで真の勾配を近似することができる。
そこで我々は,まず1ステップのPCDSを用いて3Dオブジェクトの基本構造を作成し,さらに徐々にPCDSのステップを拡大して細かな細部を生成する,粗大な最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:21:52Z) - EucliDreamer: Fast and High-Quality Texturing for 3D Models with Depth-Conditioned Stable Diffusion [5.158983929861116]
EucliDreamerは、テキストとプロンプトが与えられた3次元モデルのテクスチャを生成するための、シンプルで効果的な方法である。
テクスチャは3次元表面上の暗黙の関数としてパラメータ化され、スコア蒸留サンプリング(SDS)プロセスと微分レンダリングで最適化される。
論文 参考訳(メタデータ) (2024-04-16T04:44:16Z) - Text-Driven Diverse Facial Texture Generation via Progressive Latent-Space Refinement [34.00893761125383]
顔画像から生成した3次元Morphable Models(3DMMs)に基づくテクスチャマップからのブートストラップに対する進行的潜時空間改善手法を提案する。
本手法は, フォトリアリスティックな品質, 多様性, 効率に関する既存の3次元テクスチャ生成手法より優れている。
論文 参考訳(メタデータ) (2024-04-15T08:04:44Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - A Quantitative Evaluation of Score Distillation Sampling Based
Text-to-3D [54.78611187426158]
本研究では,SDS手法の故障事例を定量的に分析し,人間の評価によって相互に検証する,より客観的な定量的評価指標を提案する。
計算効率の良い新しいベースラインモデルを設計することで,この解析の有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T00:54:09Z) - Instant3D: Fast Text-to-3D with Sparse-View Generation and Large
Reconstruction Model [68.98311213582949]
テキストプロンプトから高品質で多様な3Dアセットをフィードフォワードで生成する新しい手法であるInstant3Dを提案する。
提案手法は,従来の最適化手法よりも2桁早く,20秒以内に高画質の多種多様な3Dアセットを生成できる。
論文 参考訳(メタデータ) (2023-11-10T18:03:44Z) - PaintHuman: Towards High-fidelity Text-to-3D Human Texturing via
Denoised Score Distillation [89.09455618184239]
テキスト・ツー・3D世代における最近の進歩は画期的なものである。
そこで我々はPaintHumanというモデルを提案し,その課題を2つの側面から解決する。
奥行きマップを手引きとして,現実的なセマンティックなテクスチャの整合性を保証する。
論文 参考訳(メタデータ) (2023-10-14T00:37:16Z) - IT3D: Improved Text-to-3D Generation with Explicit View Synthesis [71.68595192524843]
本研究では、これらの問題に対処するために、明示的に合成されたマルチビュー画像を活用する新しい戦略を提案する。
我々のアプローチは、高画質画像を生成するために、LCDによって強化されたイメージ・ツー・イメージ・パイプラインを活用することである。
組込み判別器では、合成したマルチビュー画像は実データと見なされ、最適化された3Dモデルのレンダリングは偽データとして機能する。
論文 参考訳(メタデータ) (2023-08-22T14:39:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。