論文の概要: Point'n Move: Interactive Scene Object Manipulation on Gaussian
Splatting Radiance Fields
- arxiv url: http://arxiv.org/abs/2311.16737v1
- Date: Tue, 28 Nov 2023 12:33:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 18:31:02.710654
- Title: Point'n Move: Interactive Scene Object Manipulation on Gaussian
Splatting Radiance Fields
- Title(参考訳): point'n move: gaussian splatting radiance fieldにおけるインタラクティブなシーンオブジェクト操作
- Authors: Jiajun Huang, Hongchuan Yu
- Abstract要約: Point'n Moveは、露光領域のインペイントによるインタラクティブなシーンオブジェクト操作を実現する方法である。
我々はシーン表現としてガウス・スプレイティング・ラディアンス・フィールドを採用し、その明示的な性質と速度の優位性を完全に活用する。
- 参考スコア(独自算出の注目度): 4.5907922403638945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Point'n Move, a method that achieves interactive scene object
manipulation with exposed region inpainting. Interactivity here further comes
from intuitive object selection and real-time editing. To achieve this, we
adopt Gaussian Splatting Radiance Field as the scene representation and fully
leverage its explicit nature and speed advantage. Its explicit representation
formulation allows us to devise a 2D prompt points to 3D mask dual-stage
self-prompting segmentation algorithm, perform mask refinement and merging,
minimize change as well as provide good initialization for scene inpainting and
perform editing in real-time without per-editing training, all leads to
superior quality and performance. We test our method by performing editing on
both forward-facing and 360 scenes. We also compare our method against existing
scene object removal methods, showing superior quality despite being more
capable and having a speed advantage.
- Abstract(参考訳): 我々は、露出した領域を描画するインタラクティブなシーンオブジェクト操作を実現するPoint'n Moveを提案する。
ここでの対話性は、直感的なオブジェクト選択とリアルタイム編集からもたらされる。
これを実現するために,我々はガウス型レイミアンスフィールドをシーン表現として採用し,その明示的な性質と速度優位性を十分に活用する。
その明示的な表現の定式化により、3次元マスクの2段自己プロンプトセグメンテーションアルゴリズムを考案し、マスクの精細化とマージを行い、変化を最小限にし、また、シーンのインペイントや編集を1回の編集なしでリアルタイムに行うことができる。
本手法は,前向きと360シーンの両方で編集を行うことでテストを行う。
また,提案手法を既存のシーンオブジェクト除去法と比較し,性能と性能に優れながら優れた品質を示す。
関連論文リスト
- MVInpainter: Learning Multi-View Consistent Inpainting to Bridge 2D and 3D Editing [90.30646271720919]
新規ビュー合成(NVS)と3D生成は、最近顕著に改善されている。
我々はMVInpainterを提案し、3D編集を多視点2Dインペインティングタスクとして再フォーマットする。
MVInpainterは、スクラッチから完全に新しいビューを生成するのではなく、参照ガイダンスで複数のビューイメージを部分的に描き込む。
論文 参考訳(メタデータ) (2024-08-15T07:57:28Z) - 3DitScene: Editing Any Scene via Language-guided Disentangled Gaussian Splatting [100.94916668527544]
既存の方法は、個々の2Dオブジェクトまたは3Dグローバルシーン編集にのみ焦点をあてる。
本稿では,新鮮で統一的なシーン編集フレームワークである3DitSceneを提案する。
2Dから3Dへのシームレスな編集が可能で、シーン構成や個々のオブジェクトを正確に制御できる。
論文 参考訳(メタデータ) (2024-05-28T17:59:01Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - ZONE: Zero-Shot Instruction-Guided Local Editing [56.56213730578504]
ゼロショットインストラクションを用いた局所画像編集手法ZONEを提案する。
InstructPix2Pixを通してユーザが提供する命令から特定の画像編集領域に変換する。
次に,オフザシェルフセグメントモデルから正確な画像層抽出を行う領域IoU方式を提案する。
論文 参考訳(メタデータ) (2023-12-28T02:54:34Z) - LatentEditor: Text Driven Local Editing of 3D Scenes [8.966537479017951]
テキストプロンプトを用いたニューラルネットワークの精密かつ局所的な編集のためのフレームワークであるtextscLatentEditorを紹介する。
現実のシーンを潜伏空間に埋め込むことに成功したので、より高速で適応性の高いNeRFバックボーンが編集に役立ちます。
提案手法は既存の3D編集モデルと比較して高速な編集速度と出力品質を実現する。
論文 参考訳(メタデータ) (2023-12-14T19:38:06Z) - Neural Implicit Field Editing Considering Object-environment Interaction [5.285267388811263]
オブジェクトとシーン環境のインタラクション認識システム(OSI-Aware)を提案する。
オブジェクトとシーン環境の相互作用を考慮した新しい2ストリームニューラルレンダリングシステムである。
新規なビュー合成タスクにおけるレンダリング品質の競争性能を実現する。
論文 参考訳(メタデータ) (2023-11-01T10:35:47Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - SPIn-NeRF: Multiview Segmentation and Perceptual Inpainting with Neural
Radiance Fields [26.296017756560467]
3Dでは、解は複数のビューで一貫し、幾何学的に有効でなければならない。
本稿では,これらの課題に対処する新しい3Dインペイント手法を提案する。
我々はまず,NeRF法と2次元セグメンテーション法と比較して,マルチビューセグメンテーションにおけるアプローチの優位性を実証する。
論文 参考訳(メタデータ) (2022-11-22T13:14:50Z) - Video2StyleGAN: Encoding Video in Latent Space for Manipulation [63.03250800510085]
本稿では,顔映像のセマンティックな操作のために,顔映像をStyleGANの潜在空間に符号化する新しいネットワークを提案する。
提案手法は,リアルタイム(66fps)の高速化を実現しつつ,既存の単一画像手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-06-27T06:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。