論文の概要: ReplaceAnything3D:Text-Guided 3D Scene Editing with Compositional Neural
Radiance Fields
- arxiv url: http://arxiv.org/abs/2401.17895v1
- Date: Wed, 31 Jan 2024 15:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:16:41.113948
- Title: ReplaceAnything3D:Text-Guided 3D Scene Editing with Compositional Neural
Radiance Fields
- Title(参考訳): ReplaceAnything3D:テキストガイドによる合成ニューラルラジアンスフィールドによる3次元シーン編集
- Authors: Edward Bartrum and Thu Nguyen-Phuoc and Chris Xie and Zhengqin Li and
Numair Khan and Armen Avetisyan and Douglas Lanman and Lei Xiao
- Abstract要約: 本稿では,新しいテキスト誘導3Dシーン編集手法であるReplaceAnything3Dモデル(RAM3D)を紹介する。
シーンのマルチビューイメージと、置換すべきオブジェクトを記述したテキストプロンプト、新しいオブジェクトを記述したテキストプロンプトが与えられた場合、Erase-and-Replaceアプローチは、シーン内のオブジェクトを、新たに生成されたコンテンツで効果的に置き換えることができます。
- 参考スコア(独自算出の注目度): 13.425973473159406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ReplaceAnything3D model (RAM3D), a novel text-guided 3D scene
editing method that enables the replacement of specific objects within a scene.
Given multi-view images of a scene, a text prompt describing the object to
replace, and a text prompt describing the new object, our Erase-and-Replace
approach can effectively swap objects in the scene with newly generated content
while maintaining 3D consistency across multiple viewpoints. We demonstrate the
versatility of ReplaceAnything3D by applying it to various realistic 3D scenes,
showcasing results of modified foreground objects that are well-integrated with
the rest of the scene without affecting its overall integrity.
- Abstract(参考訳): ReplaceAnything3Dモデル(RAM3D)は,シーン内の特定のオブジェクトの置き換えを可能にする新しいテキスト誘導3Dシーン編集手法である。
シーンのマルチビュー画像、置換対象を記述したテキストプロンプト、新しいオブジェクトを記述したテキストプロンプトが与えられた場合、ease-and-replaceアプローチは、シーン内のオブジェクトを、複数の視点にわたる3d一貫性を維持しながら、新たに生成されたコンテンツに効果的に置き換えることができます。
ReplaceAnything3Dを様々なリアルな3Dシーンに適用し、その全体的完全性に影響を与えることなく、シーンの他の部分とよく統合された修正前景オブジェクトの結果を示す。
関連論文リスト
- SIn-NeRF2NeRF: Editing 3D Scenes with Instructions through Segmentation and Inpainting [0.3119157043062931]
Instruct-NeRF2NeRF(in2n)は、テキストプロンプトを用いてNeRF(Neural Radiance Field)からなる3Dシーンの編集を可能にする有望な方法である。
本研究では,3次元シーン内におけるオブジェクトの幾何学的変化を,シーンから分離したオブジェクトを選択的に編集することで実現する。
論文 参考訳(メタデータ) (2024-08-23T02:20:42Z) - Chat-Edit-3D: Interactive 3D Scene Editing via Text Prompts [76.73043724587679]
CE3Dと呼ばれる対話型3Dシーン編集手法を提案する。
Hash-Atlasは3Dシーンビューを表し、3Dシーンの編集を2Dアトラスイメージに転送する。
その結果、CE3Dは複数の視覚モデルを効果的に統合し、多様な視覚効果が得られることを示した。
論文 参考訳(メタデータ) (2024-07-09T13:24:42Z) - Disentangled 3D Scene Generation with Layout Learning [109.03233745767062]
本稿では,コンポーネントオブジェクトに絡み合った3Dシーンを生成する手法を提案する。
私たちの重要な洞察は、オブジェクトは空間的に再構成された場合、同じシーンの有効な構成を生成する3Dシーンの一部を見つけることで発見できるということです。
単純さにもかかわらず、我々のアプローチは個々のオブジェクトに3Dシーンを生成することに成功している。
論文 参考訳(メタデータ) (2024-02-26T18:54:15Z) - InseRF: Text-Driven Generative Object Insertion in Neural 3D Scenes [86.26588382747184]
InseRFは3次元シーンのNeRF再構成において生成物挿入のための新しい手法である。
ユーザが提供するテキスト記述と参照視点での2Dバウンディングボックスに基づいて、InseRFは3Dシーンで新しいオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-01-10T18:59:53Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - TeMO: Towards Text-Driven 3D Stylization for Multi-Object Meshes [67.5351491691866]
我々は,多目的3Dシーンを解析し,そのスタイルを編集する,TeMOと呼ばれる新しいフレームワークを提案する。
提案手法は,高品質なスタイリングコンテンツを合成し,多目的3Dメッシュで既存手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-12-07T12:10:05Z) - Blended-NeRF: Zero-Shot Object Generation and Blending in Existing
Neural Radiance Fields [26.85599376826124]
我々は,既存のNeRFシーンに対する特定の関心領域を編集するフレームワークであるBlended-NeRFを提案する。
入力シーンに3次元ROIボックスを配置することで局所的な編集を可能にし、ROI内で合成されたコンテンツを既存のシーンとブレンドする。
シーンに新しいオブジェクトを追加すること、既存のオブジェクトを削除/変更すること、テクスチャ変換など、いくつかの3D編集アプリケーションのためのフレームワークを示す。
論文 参考訳(メタデータ) (2023-06-22T09:34:55Z) - ONeRF: Unsupervised 3D Object Segmentation from Multiple Views [59.445957699136564]
OneRFは、追加のマニュアルアノテーションなしで、マルチビューのRGBイメージから3Dのオブジェクトインスタンスを自動的に分割し、再構成する手法である。
セグメント化された3Dオブジェクトは、様々な3Dシーンの編集と新しいビューレンダリングを可能にする別個のNeRF(Neural Radiance Fields)を使用して表現される。
論文 参考訳(メタデータ) (2022-11-22T06:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。