論文の概要: FocalDreamer: Text-driven 3D Editing via Focal-fusion Assembly
- arxiv url: http://arxiv.org/abs/2308.10608v1
- Date: Mon, 21 Aug 2023 10:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 14:10:51.777012
- Title: FocalDreamer: Text-driven 3D Editing via Focal-fusion Assembly
- Title(参考訳): FocalDreamer: Focal-fusion Assemblyによるテキスト駆動3D編集
- Authors: Yuhan Li, Yishun Dou, Yue Shi, Yu Lei, Xuanhong Chen, Yi Zhang, Peng
Zhou, Bingbing Ni
- Abstract要約: FocalDreamerは、テキストプロンプトに従って編集可能な部分とベース形状をマージして、所望の領域内できめ細かい編集を行うフレームワークである。
独立した3Dパーツを完全なオブジェクトに組み立て、便利なインスタンスの再利用と部分的な制御のために調整します。
広く使われているグラフィックスエンジンと互換性のある高忠実な幾何学とPBRテクスチャを生成する。
- 参考スコア(独自算出の注目度): 46.656763132733275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While text-3D editing has made significant strides in leveraging score
distillation sampling, emerging approaches still fall short in delivering
separable, precise and consistent outcomes that are vital to content creation.
In response, we introduce FocalDreamer, a framework that merges base shape with
editable parts according to text prompts for fine-grained editing within
desired regions. Specifically, equipped with geometry union and dual-path
rendering, FocalDreamer assembles independent 3D parts into a complete object,
tailored for convenient instance reuse and part-wise control. We propose
geometric focal loss and style consistency regularization, which encourage
focal fusion and congruent overall appearance. Furthermore, FocalDreamer
generates high-fidelity geometry and PBR textures which are compatible with
widely-used graphics engines. Extensive experiments have highlighted the
superior editing capabilities of FocalDreamer in both quantitative and
qualitative evaluations.
- Abstract(参考訳): テキスト3d編集は、スコア蒸留サンプリングを活用する上で大きな進歩を遂げているが、コンテンツ作成に不可欠な分離可能で正確で一貫性のある結果を提供するための新しいアプローチはまだ不足している。
これに対し,FocalDreamerはテキストプロンプトに従って編集可能な部分とベース形状をマージし,所望の領域内できめ細かい編集を行うフレームワークである。
具体的には、幾何結合とデュアルパスレンダリングを備え、FocalDreamerは独立した3D部品を完全なオブジェクトに組み立て、便利なインスタンスの再利用と部分的な制御のために調整する。
本稿では,focal fusion と congruent 全体の外観を促進する幾何学的焦点損失とスタイル一貫性の規則化を提案する。
さらに、FocalDreamerは、広く使われているグラフィックスエンジンと互換性のある高忠実度幾何とPBRテクスチャを生成する。
広範な実験により、focaldreamerの量的および質的評価において優れた編集能力が強調された。
関連論文リスト
- SyncNoise: Geometrically Consistent Noise Prediction for Text-based 3D Scene Editing [58.22339174221563]
高忠実度3Dシーン編集のための新しい幾何誘導型マルチビュー一貫したノイズ編集手法SyncNoiseを提案する。
SyncNoiseは2次元拡散モデルで複数のビューを同期的に編集し、幾何的に一貫した多視点ノイズ予測を行う。
本手法は,特に複雑なテクスチャを持つシーンにおいて,テキストの指示に配慮した高品質な3D編集結果を実現する。
論文 参考訳(メタデータ) (2024-06-25T09:17:35Z) - CNS-Edit: 3D Shape Editing via Coupled Neural Shape Optimization [56.47175002368553]
本稿では、3次元形状編集を潜在空間で暗黙的に行うために,結合表現とニューラルボリューム最適化に基づく新しい手法を提案する。
まず,3次元形状編集を支援する結合型ニューラル形状表現を設計する。
第二に、結合したニューラルネットワークの形状最適化手順を定式化し、編集操作対象の2つの結合した成分を協調最適化する。
論文 参考訳(メタデータ) (2024-02-04T01:52:56Z) - SERF: Fine-Grained Interactive 3D Segmentation and Editing with Radiance Fields [92.14328581392633]
放射場を用いた対話型3Dセグメンテーションと編集アルゴリズムを新たに導入し,これをSERFと呼ぶ。
提案手法では,マルチビューアルゴリズムと事前学習した2Dモデルを統合することにより,ニューラルネットワーク表現を生成する。
この表現に基づいて,局所的な情報を保存し,変形に頑健な新しい表面レンダリング技術を導入する。
論文 参考訳(メタデータ) (2023-12-26T02:50:42Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - 3Deformer: A Common Framework for Image-Guided Mesh Deformation [27.732389685912214]
ソース3Dメッシュにセマンティック素材とユーザが指定したセマンティックイメージが与えられた場合、3Deformerはソースメッシュを正確に編集することができる。
私たちの3Deformerは素晴らしい結果をもたらし、最先端のレベルに達することができます。
論文 参考訳(メタデータ) (2023-07-19T10:44:44Z) - CompoNeRF: Text-guided Multi-object Compositional NeRF with Editable 3D Scene Layout [13.364394556439992]
テキストから3Dの形式は、AR/VRのための編集可能な3Dシーンを作成する上で重要な役割を果たす。
最近の進歩は、テキストから3Dオブジェクト生成のための事前訓練された拡散モデルとニューラルラジアンス場(NeRF)を融合させる可能性を示している。
編集可能な3Dシーンレイアウトとオブジェクト固有およびシーンワイドガイダンス機構を統合することで,CompoNeRFと呼ばれる新しいフレームワークを提案する。
本フレームワークは,マルチビューCLIPスコア測定によって最大54%の改善を実現している。
論文 参考訳(メタデータ) (2023-03-24T07:37:09Z) - Compositional 3D Scene Generation using Locally Conditioned Diffusion [49.5784841881488]
合成シーン拡散へのアプローチとして,テクスブフォローカライズ条件付き拡散を導入する。
本研究では, スコア蒸留によるテキスト・ツー・3D合成パイプラインを試作し, 関連するベースラインよりも高忠実度で合成3Dシーンを生成できることを示した。
論文 参考訳(メタデータ) (2023-03-21T22:37:16Z) - SP-GAN: Sphere-Guided 3D Shape Generation and Manipulation [50.53931728235875]
点雲の形で3次元形状を直接合成するための新しい教師なし球誘導生成モデルSP-GANを提案する。
既存のモデルと比較して、SP-GANは多種多様な高品質な形状を詳細に合成することができる。
論文 参考訳(メタデータ) (2021-08-10T06:49:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。