論文の概要: Point'n Move: Interactive Scene Object Manipulation on Gaussian
Splatting Radiance Fields
- arxiv url: http://arxiv.org/abs/2311.16737v1
- Date: Tue, 28 Nov 2023 12:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 18:31:02.710654
- Title: Point'n Move: Interactive Scene Object Manipulation on Gaussian
Splatting Radiance Fields
- Title(参考訳): point'n move: gaussian splatting radiance fieldにおけるインタラクティブなシーンオブジェクト操作
- Authors: Jiajun Huang, Hongchuan Yu
- Abstract要約: Point'n Moveは、露光領域のインペイントによるインタラクティブなシーンオブジェクト操作を実現する方法である。
我々はシーン表現としてガウス・スプレイティング・ラディアンス・フィールドを採用し、その明示的な性質と速度の優位性を完全に活用する。
- 参考スコア(独自算出の注目度): 4.5907922403638945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Point'n Move, a method that achieves interactive scene object
manipulation with exposed region inpainting. Interactivity here further comes
from intuitive object selection and real-time editing. To achieve this, we
adopt Gaussian Splatting Radiance Field as the scene representation and fully
leverage its explicit nature and speed advantage. Its explicit representation
formulation allows us to devise a 2D prompt points to 3D mask dual-stage
self-prompting segmentation algorithm, perform mask refinement and merging,
minimize change as well as provide good initialization for scene inpainting and
perform editing in real-time without per-editing training, all leads to
superior quality and performance. We test our method by performing editing on
both forward-facing and 360 scenes. We also compare our method against existing
scene object removal methods, showing superior quality despite being more
capable and having a speed advantage.
- Abstract(参考訳): 我々は、露出した領域を描画するインタラクティブなシーンオブジェクト操作を実現するPoint'n Moveを提案する。
ここでの対話性は、直感的なオブジェクト選択とリアルタイム編集からもたらされる。
これを実現するために,我々はガウス型レイミアンスフィールドをシーン表現として採用し,その明示的な性質と速度優位性を十分に活用する。
その明示的な表現の定式化により、3次元マスクの2段自己プロンプトセグメンテーションアルゴリズムを考案し、マスクの精細化とマージを行い、変化を最小限にし、また、シーンのインペイントや編集を1回の編集なしでリアルタイムに行うことができる。
本手法は,前向きと360シーンの両方で編集を行うことでテストを行う。
また,提案手法を既存のシーンオブジェクト除去法と比較し,性能と性能に優れながら優れた品質を示す。
関連論文リスト
- Efficient Dynamic Scene Editing via 4D Gaussian-based Static-Dynamic Separation [25.047474784265773]
最近の4D動的シーン編集手法では、動的シーン合成に使用される数千の2D画像を編集する必要がある。
これらの手法は動的シーンの時間次元に関して拡張性がない。
本研究では,時間次元の面でよりスケーラブルな動的シーン編集手法を提案する。
論文 参考訳(メタデータ) (2025-02-04T08:18:49Z) - PrEditor3D: Fast and Precise 3D Shape Editing [100.09112677669376]
本稿では,1つの形状の編集を数分以内に行うことができる3D編集のためのトレーニングフリーアプローチを提案する。
編集された3Dメッシュはプロンプトとよく一致しており、変更を意図していない領域でも同じである。
論文 参考訳(メタデータ) (2024-12-09T15:44:47Z) - CTRL-D: Controllable Dynamic 3D Scene Editing with Personalized 2D Diffusion [13.744253074367885]
本稿では,まずInstructPix2Pixモデルを微調整し,次いでシーンの2段階最適化を行う新しいフレームワークを提案する。
提案手法は、所望の編集領域を追跡することなく、一貫した正確なローカル編集を可能にする。
最先端の手法と比較して、我々の手法はより柔軟で制御可能なローカルシーン編集を提供する。
論文 参考訳(メタデータ) (2024-12-02T18:38:51Z) - 3DitScene: Editing Any Scene via Language-guided Disentangled Gaussian Splatting [100.94916668527544]
既存の方法は、個々の2Dオブジェクトまたは3Dグローバルシーン編集にのみ焦点をあてる。
本稿では,新鮮で統一的なシーン編集フレームワークである3DitSceneを提案する。
2Dから3Dへのシームレスな編集が可能で、シーン構成や個々のオブジェクトを正確に制御できる。
論文 参考訳(メタデータ) (2024-05-28T17:59:01Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - ZONE: Zero-Shot Instruction-Guided Local Editing [56.56213730578504]
ゼロショットインストラクションを用いた局所画像編集手法ZONEを提案する。
InstructPix2Pixを通してユーザが提供する命令から特定の画像編集領域に変換する。
次に,オフザシェルフセグメントモデルから正確な画像層抽出を行う領域IoU方式を提案する。
論文 参考訳(メタデータ) (2023-12-28T02:54:34Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [90.57414218888536]
カラーフィールドは、標準画像(canonical image)とも呼ばれる、明示的な2次元の外観アグリゲーションとして学習する。
テクスチャクエリのために3Dポイントを2Dピクセルにマッピングする投影場を標準画像に補完する。
提案手法は,既存のNeRFベースの編集手法に比べて,編集1回あたり20倍高速であることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - Neural Implicit Field Editing Considering Object-environment Interaction [5.285267388811263]
オブジェクトとシーン環境のインタラクション認識システム(OSI-Aware)を提案する。
オブジェクトとシーン環境の相互作用を考慮した新しい2ストリームニューラルレンダリングシステムである。
新規なビュー合成タスクにおけるレンダリング品質の競争性能を実現する。
論文 参考訳(メタデータ) (2023-11-01T10:35:47Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - SPIn-NeRF: Multiview Segmentation and Perceptual Inpainting with Neural
Radiance Fields [26.296017756560467]
3Dでは、解は複数のビューで一貫し、幾何学的に有効でなければならない。
本稿では,これらの課題に対処する新しい3Dインペイント手法を提案する。
我々はまず,NeRF法と2次元セグメンテーション法と比較して,マルチビューセグメンテーションにおけるアプローチの優位性を実証する。
論文 参考訳(メタデータ) (2022-11-22T13:14:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。