論文の概要: SIn-NeRF2NeRF: Editing 3D Scenes with Instructions through Segmentation and Inpainting
- arxiv url: http://arxiv.org/abs/2408.13285v1
- Date: Fri, 23 Aug 2024 02:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 20:08:51.121443
- Title: SIn-NeRF2NeRF: Editing 3D Scenes with Instructions through Segmentation and Inpainting
- Title(参考訳): SIn-NeRF2NeRF: セグメンテーションと塗布による3次元シーンの編集
- Authors: Jiseung Hong, Changmin Lee, Gyusang Yu,
- Abstract要約: Instruct-NeRF2NeRF(in2n)は、テキストプロンプトを用いてNeRF(Neural Radiance Field)からなる3Dシーンの編集を可能にする有望な方法である。
本研究では,3次元シーン内におけるオブジェクトの幾何学的変化を,シーンから分離したオブジェクトを選択的に編集することで実現する。
- 参考スコア(独自算出の注目度): 0.3119157043062931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TL;DR Perform 3D object editing selectively by disentangling it from the background scene. Instruct-NeRF2NeRF (in2n) is a promising method that enables editing of 3D scenes composed of Neural Radiance Field (NeRF) using text prompts. However, it is challenging to perform geometrical modifications such as shrinking, scaling, or moving on both the background and object simultaneously. In this project, we enable geometrical changes of objects within the 3D scene by selectively editing the object after separating it from the scene. We perform object segmentation and background inpainting respectively, and demonstrate various examples of freely resizing or moving disentangled objects within the three-dimensional space.
- Abstract(参考訳): TL;DR 3Dオブジェクトを背景シーンから切り離して選択的に編集する。
Instruct-NeRF2NeRF(in2n)は、テキストプロンプトを用いてNeRF(Neural Radiance Field)からなる3Dシーンの編集を可能にする有望な方法である。
しかし、縮小、スケーリング、背景と物体の両方を同時に移動するような幾何学的な修正を行うことは困難である。
本研究では,3次元シーン内におけるオブジェクトの幾何学的変化を,シーンから分離したオブジェクトを選択的に編集することで実現する。
対象のセグメンテーションと背景のインペイントを行い、3次元空間内における乱れを自由に縮小または移動させる様々な例を示す。
関連論文リスト
- 3DitScene: Editing Any Scene via Language-guided Disentangled Gaussian Splatting [100.94916668527544]
既存の方法は、個々の2Dオブジェクトまたは3Dグローバルシーン編集にのみ焦点をあてる。
本稿では,新鮮で統一的なシーン編集フレームワークである3DitSceneを提案する。
2Dから3Dへのシームレスな編集が可能で、シーン構成や個々のオブジェクトを正確に制御できる。
論文 参考訳(メタデータ) (2024-05-28T17:59:01Z) - Disentangled 3D Scene Generation with Layout Learning [109.03233745767062]
本稿では,コンポーネントオブジェクトに絡み合った3Dシーンを生成する手法を提案する。
私たちの重要な洞察は、オブジェクトは空間的に再構成された場合、同じシーンの有効な構成を生成する3Dシーンの一部を見つけることで発見できるということです。
単純さにもかかわらず、我々のアプローチは個々のオブジェクトに3Dシーンを生成することに成功している。
論文 参考訳(メタデータ) (2024-02-26T18:54:15Z) - ReplaceAnything3D:Text-Guided 3D Scene Editing with Compositional Neural
Radiance Fields [13.425973473159406]
本稿では,新しいテキスト誘導3Dシーン編集手法であるReplaceAnything3Dモデル(RAM3D)を紹介する。
シーンのマルチビューイメージと、置換すべきオブジェクトを記述したテキストプロンプト、新しいオブジェクトを記述したテキストプロンプトが与えられた場合、Erase-and-Replaceアプローチは、シーン内のオブジェクトを、新たに生成されたコンテンツで効果的に置き換えることができます。
論文 参考訳(メタデータ) (2024-01-31T15:02:26Z) - InseRF: Text-Driven Generative Object Insertion in Neural 3D Scenes [86.26588382747184]
InseRFは3次元シーンのNeRF再構成において生成物挿入のための新しい手法である。
ユーザが提供するテキスト記述と参照視点での2Dバウンディングボックスに基づいて、InseRFは3Dシーンで新しいオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-01-10T18:59:53Z) - Directional Texture Editing for 3D Models [51.31499400557996]
ITEM3D は textbf3D オブジェクトの自動編集のために設計されている。
拡散モデルと微分可能レンダリングを活用して、ITEM3Dはレンダリングされた画像をテキストと3D表現のブリッジとして取り込む。
論文 参考訳(メタデータ) (2023-09-26T12:01:13Z) - OR-NeRF: Object Removing from 3D Scenes Guided by Multiview Segmentation
with Neural Radiance Fields [53.32527220134249]
ニューラル・レージアンス・フィールド(NeRF)の出現により,3次元シーン編集への関心が高まっている。
現在の手法では、時間を要するオブジェクトのラベル付け、特定のターゲットを削除する能力の制限、削除後のレンダリング品質の妥協といった課題に直面している。
本稿では, OR-NeRF と呼ばれる新しいオブジェクト除去パイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-17T18:18:05Z) - ONeRF: Unsupervised 3D Object Segmentation from Multiple Views [59.445957699136564]
OneRFは、追加のマニュアルアノテーションなしで、マルチビューのRGBイメージから3Dのオブジェクトインスタンスを自動的に分割し、再構成する手法である。
セグメント化された3Dオブジェクトは、様々な3Dシーンの編集と新しいビューレンダリングを可能にする別個のNeRF(Neural Radiance Fields)を使用して表現される。
論文 参考訳(メタデータ) (2022-11-22T06:19:37Z) - Volumetric Disentanglement for 3D Scene Manipulation [22.22326242219791]
本研究では,前景オブジェクトを背景から切り離したり分離したりするためのボリューム・フレームワークを提案し,前景オブジェクトを背景だけでなく意味的に操作する。
筆者らのフレームワークは,望まれる前景オブジェクトを指定する2次元マスクと関連する2次元ビューとポーズを入力として,前景のゆがみを生成する。
その後、オブジェクト・カモフラージュ、非負の3Dオブジェクト・インペインティング、3Dオブジェクト・インペインティング、3Dテキスト・ベースなど、多数の下流操作タスクに対するフレームワークの適用性を実証した。
論文 参考訳(メタデータ) (2022-06-06T17:57:07Z) - Decomposing NeRF for Editing via Feature Field Distillation [14.628761232614762]
NeRFで表現されるシーンの編集は、基礎となるコネクショナリスト表現がオブジェクト指向や構成的ではないため、難しい。
本研究では,NeRFのセマンティックなシーン分解の問題に対処し,クエリに基づく局所的な編集を可能にする。
本稿では,市販の自己監督型2次元画像特徴抽出器の知識を,放射場と平行に最適化された3次元特徴場に抽出することを提案する。
論文 参考訳(メタデータ) (2022-05-31T07:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。