論文の概要: ProGDF: Progressive Gaussian Differential Field for Controllable and Flexible 3D Editing
- arxiv url: http://arxiv.org/abs/2412.08152v1
- Date: Wed, 11 Dec 2024 07:13:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:26.089011
- Title: ProGDF: Progressive Gaussian Differential Field for Controllable and Flexible 3D Editing
- Title(参考訳): ProGDF: 制御可能で柔軟な3D編集のためのプログレッシブガウス微分場
- Authors: Yian Zhao, Wanshi Xu, Yang Wu, Weiheng Huang, Zhongqian Sun, Wei Yang,
- Abstract要約: 3D編集は、既存の3Dアセットの編集と再利用において重要な役割を担い、生産性を向上させる。
近年、3DGSベースの手法は、効率的なレンダリングと柔軟性のために注目を集めている。
3次元編集のためのプロセス指向モデリングの概念を導入し、プログレッシブガウス微分場(ProGDF)を提案する。
ProGDFはループ外トレーニングのアプローチであり、ユーザがリアルタイムでコントロール可能な編集機能と、ユーザフレンドリなインターフェースによる可変編集結果を提供するために、単一のトレーニングセッションのみを必要とする。
- 参考スコア(独自算出の注目度): 10.559263123994723
- License:
- Abstract: 3D editing plays a crucial role in editing and reusing existing 3D assets, thereby enhancing productivity. Recently, 3DGS-based methods have gained increasing attention due to their efficient rendering and flexibility. However, achieving desired 3D editing results often requires multiple adjustments in an iterative loop, resulting in tens of minutes of training time cost for each attempt and a cumbersome trial-and-error cycle for users. This in-the-loop training paradigm results in a poor user experience. To address this issue, we introduce the concept of process-oriented modelling for 3D editing and propose the Progressive Gaussian Differential Field (ProGDF), an out-of-loop training approach that requires only a single training session to provide users with controllable editing capability and variable editing results through a user-friendly interface in real-time. ProGDF consists of two key components: Progressive Gaussian Splatting (PGS) and Gaussian Differential Field (GDF). PGS introduces the progressive constraint to extract the diverse intermediate results of the editing process and employs rendering quality regularization to improve the quality of these results. Based on these intermediate results, GDF leverages a lightweight neural network to model the editing process. Extensive results on two novel applications, namely controllable 3D editing and flexible fine-grained 3D manipulation, demonstrate the effectiveness, practicality and flexibility of the proposed ProGDF.
- Abstract(参考訳): 3D編集は、既存の3Dアセットの編集と再利用において重要な役割を担い、生産性を向上させる。
近年、3DGSベースの手法は、効率的なレンダリングと柔軟性のために注目を集めている。
しかし、望ましい3D編集結果を達成するには、繰り返しループで複数の調整が必要であることが多く、結果として、各試行ごとに何分かのトレーニング時間と、ユーザにとって面倒な試行錯誤サイクルが発生する。
このループ内のトレーニングパラダイムは、ユーザエクスペリエンスの低下をもたらします。
この問題に対処するために,プロセス指向の3次元編集モデルの概念を導入し,ユーザフレンドリなインタフェースによる編集機能と編集結果の可変化を実現するために,単一のトレーニングセッションのみを必要とするループ外トレーニング手法ProGDFを提案する。
ProGDFはPGS(Progressive Gaussian Splatting)とGDF(Gaussian Differential Field)の2つの主要なコンポーネントから構成されている。
PGSは、プログレッシブ制約を導入して、編集プロセスの様々な中間結果を抽出し、レンダリング品質の正規化を利用して、これらの結果の品質を改善する。
これらの中間結果に基づいて、GDFは軽量ニューラルネットワークを利用して編集プロセスをモデル化する。
制御可能な3D編集とフレキシブルな微細な3D操作という2つの新しい応用の広範な成果は,提案したProGDFの有効性,実用性,柔軟性を実証している。
関連論文リスト
- Drag Your Gaussian: Effective Drag-Based Editing with Score Distillation for 3D Gaussian Splatting [55.14822004410817]
DYGは3次元ガウススプラッティングのための効果的な3次元ドラッグベース編集法である。
3次元マスクと一対の制御点を入力して編集範囲を正確に制御できる。
DYGは暗黙三面体表現の強さを統合し、編集結果の幾何学的足場を確立する。
論文 参考訳(メタデータ) (2025-01-30T18:51:54Z) - 3D Gaussian Editing with A Single Image [19.662680524312027]
本稿では,3次元ガウシアンスプラッティングをベースとしたワンイメージ駆動の3Dシーン編集手法を提案する。
提案手法は,ユーザが指定した視点から描画した画像の編集版に合わせるために,3次元ガウスを最適化することを学ぶ。
実験により, 幾何学的詳細処理, 長距離変形, 非剛性変形処理における本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-14T13:17:42Z) - Preserving Identity with Variational Score for General-purpose 3D Editing [48.314327790451856]
Pivaは拡散モデルに基づいて画像や3Dモデルを編集する新しい最適化手法である。
我々は2Dと3Dの編集の限界を指摘し、細かな損失と過飽和を引き起こす。
恒常保存を強制する追加のスコア蒸留項を提案する。
論文 参考訳(メタデータ) (2024-06-13T09:32:40Z) - DragGaussian: Enabling Drag-style Manipulation on 3D Gaussian Representation [57.406031264184584]
DragGaussianは、3D Gaussian Splattingをベースにした3Dオブジェクトのドラッグ編集フレームワークである。
我々の貢献は、新しいタスクの導入、インタラクティブなポイントベース3D編集のためのDragGaussianの開発、質的かつ定量的な実験によるその効果の包括的検証などである。
論文 参考訳(メタデータ) (2024-05-09T14:34:05Z) - DGE: Direct Gaussian 3D Editing by Consistent Multi-view Editing [72.54566271694654]
オープンな言語命令に基づいて3Dオブジェクトやシーンを編集する際の問題点を考察する。
この問題に対する一般的なアプローチは、3D編集プロセスをガイドするために2Dイメージジェネレータまたはエディタを使用することである。
このプロセスは、コストのかかる3D表現の反復的な更新を必要とするため、しばしば非効率である。
論文 参考訳(メタデータ) (2024-04-29T17:59:30Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z) - SERF: Fine-Grained Interactive 3D Segmentation and Editing with Radiance Fields [92.14328581392633]
放射場を用いた対話型3Dセグメンテーションと編集アルゴリズムを新たに導入し,これをSERFと呼ぶ。
提案手法では,マルチビューアルゴリズムと事前学習した2Dモデルを統合することにより,ニューラルネットワーク表現を生成する。
この表現に基づいて,局所的な情報を保存し,変形に頑健な新しい表面レンダリング技術を導入する。
論文 参考訳(メタデータ) (2023-12-26T02:50:42Z) - GaussianEditor: Swift and Controllable 3D Editing with Gaussian
Splatting [66.08674785436612]
3D編集は、ゲームや仮想現実など、多くの分野で重要な役割を担っている。
メッシュやポイントクラウドのような表現に依存した従来の3D編集手法は、複雑なシーンを現実的に描写するのに不足することが多い。
本稿では,新しい3D表現であるGaussian Splatting(GS)に基づく,革新的で効率的な3D編集アルゴリズムであるGaussianEditorを提案する。
論文 参考訳(メタデータ) (2023-11-24T14:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。