論文の概要: 3D-LATTE: Latent Space 3D Editing from Textual Instructions
- arxiv url: http://arxiv.org/abs/2509.00269v1
- Date: Fri, 29 Aug 2025 22:51:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.15544
- Title: 3D-LATTE: Latent Space 3D Editing from Textual Instructions
- Title(参考訳): 3D-LATTE:テキストによる3D編集
- Authors: Maria Parelli, Michael Oechsle, Michael Niemeyer, Federico Tombari, Andreas Geiger,
- Abstract要約: 本研究では,ネイティブな3次元拡散モデルの潜在空間内で動作する学習自由な編集手法を提案する。
生成元からの3Dアテンションマップとソースオブジェクトをブレンドすることで、編集合成をガイドする。
- 参考スコア(独自算出の注目度): 64.77718887666312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the recent success of multi-view diffusion models for text/image-based 3D asset generation, instruction-based editing of 3D assets lacks surprisingly far behind the quality of generation models. The main reason is that recent approaches using 2D priors suffer from view-inconsistent editing signals. Going beyond 2D prior distillation methods and multi-view editing strategies, we propose a training-free editing method that operates within the latent space of a native 3D diffusion model, allowing us to directly manipulate 3D geometry. We guide the edit synthesis by blending 3D attention maps from the generation with the source object. Coupled with geometry-aware regularization guidance, a spectral modulation strategy in the Fourier domain and a refinement step for 3D enhancement, our method outperforms previous 3D editing methods enabling high-fidelity, precise, and robust edits across a wide range of shapes and semantic manipulations.
- Abstract(参考訳): 近年、テキスト/画像ベースの3Dアセット生成のための多視点拡散モデルの成功にもかかわらず、命令ベースの3Dアセットの編集は、生成モデルの品質よりも驚くほど遅れている。
主な理由は、最近の2Dプリエントを用いたアプローチは、ビュー一貫性のない編集信号に悩まされているからである。
そこで本研究では,3次元拡散モデルの潜在空間内で動作する訓練不要な編集手法を提案する。
生成元からの3Dアテンションマップとソースオブジェクトをブレンドすることで、編集合成をガイドする。
幾何対応の正規化指導,フーリエ領域のスペクトル変調戦略,および3次元拡張のための改良ステップと組み合わせて,本手法は,多種多様な形状や意味的操作を多用し,高精度で堅牢な編集を可能にする従来の3次元編集方法よりも優れていた。
関連論文リスト
- 3D-Fixup: Advancing Photo Editing with 3D Priors [32.83193513442457]
3D-Fixupは、学習した3Dプリエントによってガイドされた2Dイメージを編集する新しいフレームワークである。
拡散モデルの生成力を利用するトレーニングベースアプローチを利用する。
3D-Fixupは複雑でアイデンティティの整合した3D認識編集を効果的にサポートする。
論文 参考訳(メタデータ) (2025-05-15T17:59:51Z) - Text-to-3D Generation by 2D Editing [17.17448279533487]
事前訓練された2D拡散モデルから3D表現を蒸留することは、ゲーム、フィルム、インテリアデザインの3Dクリエイティブアプリケーションに不可欠である。
現在のSDS法は拡散モデルからの非効率な情報蒸留によって妨げられ、光現実的な3Dコンテンツの作成を妨げている。
本稿では,事前学習した拡散モデルを用いて,複数ステップで多粒度情報を抽出する3次元編集(GE3D)を提案する。
論文 参考訳(メタデータ) (2024-12-08T12:53:05Z) - Coin3D: Controllable and Interactive 3D Assets Generation with Proxy-Guided Conditioning [52.81032340916171]
Coin3Dを使えば、ユーザーは基本的な形状から組み立てられた粗い幾何学的プロキシを使って3D生成を制御できる。
本手法は,3次元アセット生成タスクにおいて,制御性と柔軟性に優れる。
論文 参考訳(メタデータ) (2024-05-13T17:56:13Z) - DGE: Direct Gaussian 3D Editing by Consistent Multi-view Editing [72.54566271694654]
オープンな言語命令に基づいて3Dオブジェクトやシーンを編集する際の問題点を考察する。
この問題に対する一般的なアプローチは、3D編集プロセスをガイドするために2Dイメージジェネレータまたはエディタを使用することである。
このプロセスは、コストのかかる3D表現の反復的な更新を必要とするため、しばしば非効率である。
論文 参考訳(メタデータ) (2024-04-29T17:59:30Z) - Reference-Based 3D-Aware Image Editing with Triplanes [15.222454412573455]
本研究は,先進的な参照ベース編集における三面体空間の有効性を探求し,実証する。
提案手法は, 符号化, 自動位置決め, 三面体特徴の空間的ゆがみ, 融合学習を統合して, 所望の編集を実現する。
われわれは、人間の顔、360度頭部、動物の顔、漫画の顔のような部分的にスタイリングされた編集、フルボディの衣服の編集、クラスに依存しないサンプルの編集など、さまざまな領域にまたがるアプローチを実証した。
論文 参考訳(メタデータ) (2024-04-04T17:53:33Z) - Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - Plasticine3D: 3D Non-Rigid Editing with Text Guidance by Multi-View Embedding Optimization [21.8454418337306]
本研究では,3次元非剛性編集が可能なテキスト誘導型3D編集パイプラインであるPlastine3Dを提案する。
本研究は,編集過程を幾何学的編集段階とテクスチャ的編集段階に分割し,構造と外観を別々に制御する。
細粒度制御のために,埋め込み空間の編集目的と原特徴を融合させるエンベディング・フュージョン (EF) を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:01:54Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。