論文の概要: Removing Objects From Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2212.11966v1
- Date: Thu, 22 Dec 2022 18:51:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 15:02:54.208105
- Title: Removing Objects From Neural Radiance Fields
- Title(参考訳): 神経放射場からの物体の除去
- Authors: Silvan Weder, Guillermo Garcia-Hernando, Aron Monszpart, Marc
Pollefeys, Gabriel Brostow, Michael Firman, Sara Vicente
- Abstract要約: RGB-Dシーケンスから生成されたNeRF表現からオブジェクトを除去するフレームワークを提案する。
当社のNeRF塗装法は,最近の2次元画像塗装技術を活用し,ユーザが提供するマスクでガイドされる。
提案手法は多視点コヒーレントな方法で可塑性塗料の合成に有効であることを示す。
- 参考スコア(独自算出の注目度): 60.067117643543824
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural Radiance Fields (NeRFs) are emerging as a ubiquitous scene
representation that allows for novel view synthesis. Increasingly, NeRFs will
be shareable with other people. Before sharing a NeRF, though, it might be
desirable to remove personal information or unsightly objects. Such removal is
not easily achieved with the current NeRF editing frameworks. We propose a
framework to remove objects from a NeRF representation created from an RGB-D
sequence. Our NeRF inpainting method leverages recent work in 2D image
inpainting and is guided by a user-provided mask. Our algorithm is underpinned
by a confidence based view selection procedure. It chooses which of the
individual 2D inpainted images to use in the creation of the NeRF, so that the
resulting inpainted NeRF is 3D consistent. We show that our method for NeRF
editing is effective for synthesizing plausible inpaintings in a multi-view
coherent manner. We validate our approach using a new and still-challenging
dataset for the task of NeRF inpainting.
- Abstract(参考訳): neural radiance fields(nerfs)は、新しいビュー合成を可能にするユビキタスなシーン表現として登場している。
NeRFはますます他の人たちと共有されていくだろう。
しかし、nerfを共有する前に、個人情報や目立たないオブジェクトを削除するのが望ましいかもしれない。
このような除去は、現在のNeRF編集フレームワークでは容易には達成できない。
RGB-Dシーケンスから生成されたNeRF表現からオブジェクトを除去するフレームワークを提案する。
当社のNeRF塗装法は,最近の2次元画像塗装技術を活用し,ユーザが提供するマスクでガイドされる。
我々のアルゴリズムは信頼度に基づくビュー選択手順によって支えられている。
個々の2Dインペイント画像のうちどれがNeRFの作成に使用されるかを選択し、その結果のNeRFは3D一貫性がある。
提案手法は多視点コヒーレントな方法で可塑性塗料の合成に有効であることを示す。
提案手法は,NeRF塗布作業において,新しい,かつ,未処理のデータセットを用いて検証する。
関連論文リスト
- Inpaint4DNeRF: Promptable Spatio-Temporal NeRF Inpainting with
Generative Diffusion Models [59.96172701917538]
現在のニューラル・ラジアンス・フィールド(NeRF)はフォトリアリスティック・ノベルビューを生成することができる。
本稿ではInpaint4DNeRFを提案する。
論文 参考訳(メタデータ) (2023-12-30T11:26:55Z) - Blending-NeRF: Text-Driven Localized Editing in Neural Radiance Fields [16.375242125946965]
我々は,2つのNeRFネットワーク – 事前学習されたNeRFと編集可能なNeRF – で構成される,新しいNeRFベースモデルであるBlending-NeRFを提案する。
我々はBlending-NeRFがテキストで局所化されたターゲット領域を適切に編集できる新しいブレンディング操作を導入した。
実験の結果,Blending-NeRFはテキストプロンプトから自然および局所的に3Dオブジェクトを生成することがわかった。
論文 参考訳(メタデータ) (2023-08-23T07:46:44Z) - DReg-NeRF: Deep Registration for Neural Radiance Fields [66.69049158826677]
我々は,人間の介入なしにオブジェクト中心のアノテートシーンにおけるNeRF登録問題を解くためにDReg-NeRFを提案する。
提案手法は,SOTAポイントクラウド登録方式を大きなマージンで打ち負かす。
論文 参考訳(メタデータ) (2023-08-18T08:37:49Z) - RePaint-NeRF: NeRF Editting via Semantic Masks and Diffusion Models [36.236190350126826]
本稿では,RGB画像を入力として取り出し,ニューラルシーンの3Dコンテンツを変更可能な新しいフレームワークを提案する。
具体的には,対象オブジェクトを意味的に選択し,事前学習した拡散モデルを用いてNeRFモデルを誘導し,新しい3Dオブジェクトを生成する。
実験の結果,本アルゴリズムは,異なるテキストプロンプト下でのNeRFの3次元オブジェクトの編集に有効であることがわかった。
論文 参考訳(メタデータ) (2023-06-09T04:49:31Z) - InpaintNeRF360: Text-Guided 3D Inpainting on Unbounded Neural Radiance
Fields [12.550958219944594]
InpaintNeRF360は、自然言語の指示を3Dシーンのインペイントのためのガイダンスとして利用する統合フレームワークである。
InpaintNeRF360は、複数のオブジェクトを同時に削除したり、テキスト命令に基づいてオブジェクトの外観を変更することができる。
提案手法の有効性を実証し,暗示放射場の編集可能性を高める可能性を示す。
論文 参考訳(メタデータ) (2023-05-24T12:22:23Z) - Learning a Diffusion Prior for NeRFs [84.99454404653339]
正規化グリッド上に符号化されたNeRFを生成するために拡散モデルを提案する。
提案モデルでは,現実的なNeRFのサンプル化が可能である一方で,条件付き世代を許容すると同時に,特定の観察をガイダンスとして与えることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T19:24:21Z) - PaletteNeRF: Palette-based Color Editing for NeRFs [16.49512200561126]
本研究では,バニラNeRFの簡易かつ効果的な拡張であるPaletteNeRFを提案する。
提案手法は, 広い範囲のNeRF表現シーンにおいて, 効率的な, ビュー一貫性, アーティファクトのないカラー編集を実現する。
論文 参考訳(メタデータ) (2022-12-25T08:01:03Z) - NeRF-Loc: Transformer-Based Object Localization Within Neural Radiance
Fields [62.89785701659139]
我々は,NeRFシーン内の物体の3次元境界ボックスを抽出するトランスフォーマーベースのフレームワークNeRF-Locを提案する。
NeRF-Locは、事前訓練されたNeRFモデルとカメラビューを入力として、オブジェクトのラベル付き3Dバウンディングボックスを出力として生成する。
論文 参考訳(メタデータ) (2022-09-24T18:34:22Z) - NeRF-In: Free-Form NeRF Inpainting with RGB-D Priors [14.911856302172996]
我々は,事前学習したNeRFで表現された3Dシーンにおいて,望ましくないオブジェクトや望ましくない領域を除去できる最初のフレームワークを紹介した。
より短い時間と少ないユーザ手作業を用いて、複数のビューにまたがって視覚的可視かつ構造的に一貫した結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-10T06:54:22Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。