論文の概要: Removing Objects From Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2212.11966v1
- Date: Thu, 22 Dec 2022 18:51:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 15:02:54.208105
- Title: Removing Objects From Neural Radiance Fields
- Title(参考訳): 神経放射場からの物体の除去
- Authors: Silvan Weder, Guillermo Garcia-Hernando, Aron Monszpart, Marc
Pollefeys, Gabriel Brostow, Michael Firman, Sara Vicente
- Abstract要約: RGB-Dシーケンスから生成されたNeRF表現からオブジェクトを除去するフレームワークを提案する。
当社のNeRF塗装法は,最近の2次元画像塗装技術を活用し,ユーザが提供するマスクでガイドされる。
提案手法は多視点コヒーレントな方法で可塑性塗料の合成に有効であることを示す。
- 参考スコア(独自算出の注目度): 60.067117643543824
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural Radiance Fields (NeRFs) are emerging as a ubiquitous scene
representation that allows for novel view synthesis. Increasingly, NeRFs will
be shareable with other people. Before sharing a NeRF, though, it might be
desirable to remove personal information or unsightly objects. Such removal is
not easily achieved with the current NeRF editing frameworks. We propose a
framework to remove objects from a NeRF representation created from an RGB-D
sequence. Our NeRF inpainting method leverages recent work in 2D image
inpainting and is guided by a user-provided mask. Our algorithm is underpinned
by a confidence based view selection procedure. It chooses which of the
individual 2D inpainted images to use in the creation of the NeRF, so that the
resulting inpainted NeRF is 3D consistent. We show that our method for NeRF
editing is effective for synthesizing plausible inpaintings in a multi-view
coherent manner. We validate our approach using a new and still-challenging
dataset for the task of NeRF inpainting.
- Abstract(参考訳): neural radiance fields(nerfs)は、新しいビュー合成を可能にするユビキタスなシーン表現として登場している。
NeRFはますます他の人たちと共有されていくだろう。
しかし、nerfを共有する前に、個人情報や目立たないオブジェクトを削除するのが望ましいかもしれない。
このような除去は、現在のNeRF編集フレームワークでは容易には達成できない。
RGB-Dシーケンスから生成されたNeRF表現からオブジェクトを除去するフレームワークを提案する。
当社のNeRF塗装法は,最近の2次元画像塗装技術を活用し,ユーザが提供するマスクでガイドされる。
我々のアルゴリズムは信頼度に基づくビュー選択手順によって支えられている。
個々の2Dインペイント画像のうちどれがNeRFの作成に使用されるかを選択し、その結果のNeRFは3D一貫性がある。
提案手法は多視点コヒーレントな方法で可塑性塗料の合成に有効であることを示す。
提案手法は,NeRF塗布作業において,新しい,かつ,未処理のデータセットを用いて検証する。
関連論文リスト
- GenN2N: Generative NeRF2NeRF Translation [53.20986183316661]
GenN2Nは、様々なNeRF翻訳タスクのための統一されたNeRF-to-NeRF翻訳フレームワークである。
2Dドメインの編集と2D編集を3D NeRF空間に持ち上げるために、プラグイン・アンド・プレイのイメージ・ツー・イメージ・トランスレータを使用している。
論文 参考訳(メタデータ) (2024-04-03T14:56:06Z) - Fast Sparse View Guided NeRF Update for Object Reconfigurations [42.947608325321475]
我々は,NeRFの物理的変化に対する最初の更新手法を開発した。
提案手法では,新たな画像のみを余分な入力として処理し,トレーニング済みのNeRFを約1~2分で更新する。
私たちの中核となる考え方は、局所的な幾何学や外観の変化を学ぶために、第2のヘルパーNeRFを使うことです。
論文 参考訳(メタデータ) (2024-03-16T22:00:16Z) - Inpaint4DNeRF: Promptable Spatio-Temporal NeRF Inpainting with
Generative Diffusion Models [59.96172701917538]
現在のニューラル・ラジアンス・フィールド(NeRF)はフォトリアリスティック・ノベルビューを生成することができる。
本稿ではInpaint4DNeRFを提案する。
論文 参考訳(メタデータ) (2023-12-30T11:26:55Z) - Blending-NeRF: Text-Driven Localized Editing in Neural Radiance Fields [16.375242125946965]
我々は,2つのNeRFネットワーク – 事前学習されたNeRFと編集可能なNeRF – で構成される,新しいNeRFベースモデルであるBlending-NeRFを提案する。
我々はBlending-NeRFがテキストで局所化されたターゲット領域を適切に編集できる新しいブレンディング操作を導入した。
実験の結果,Blending-NeRFはテキストプロンプトから自然および局所的に3Dオブジェクトを生成することがわかった。
論文 参考訳(メタデータ) (2023-08-23T07:46:44Z) - DReg-NeRF: Deep Registration for Neural Radiance Fields [66.69049158826677]
我々は,人間の介入なしにオブジェクト中心のアノテートシーンにおけるNeRF登録問題を解くためにDReg-NeRFを提案する。
提案手法は,SOTAポイントクラウド登録方式を大きなマージンで打ち負かす。
論文 参考訳(メタデータ) (2023-08-18T08:37:49Z) - RePaint-NeRF: NeRF Editting via Semantic Masks and Diffusion Models [36.236190350126826]
本稿では,RGB画像を入力として取り出し,ニューラルシーンの3Dコンテンツを変更可能な新しいフレームワークを提案する。
具体的には,対象オブジェクトを意味的に選択し,事前学習した拡散モデルを用いてNeRFモデルを誘導し,新しい3Dオブジェクトを生成する。
実験の結果,本アルゴリズムは,異なるテキストプロンプト下でのNeRFの3次元オブジェクトの編集に有効であることがわかった。
論文 参考訳(メタデータ) (2023-06-09T04:49:31Z) - PaletteNeRF: Palette-based Color Editing for NeRFs [16.49512200561126]
本研究では,バニラNeRFの簡易かつ効果的な拡張であるPaletteNeRFを提案する。
提案手法は, 広い範囲のNeRF表現シーンにおいて, 効率的な, ビュー一貫性, アーティファクトのないカラー編集を実現する。
論文 参考訳(メタデータ) (2022-12-25T08:01:03Z) - NeRF-Loc: Transformer-Based Object Localization Within Neural Radiance
Fields [62.89785701659139]
我々は,NeRFシーン内の物体の3次元境界ボックスを抽出するトランスフォーマーベースのフレームワークNeRF-Locを提案する。
NeRF-Locは、事前訓練されたNeRFモデルとカメラビューを入力として、オブジェクトのラベル付き3Dバウンディングボックスを出力として生成する。
論文 参考訳(メタデータ) (2022-09-24T18:34:22Z) - NeRF-In: Free-Form NeRF Inpainting with RGB-D Priors [14.911856302172996]
我々は,事前学習したNeRFで表現された3Dシーンにおいて,望ましくないオブジェクトや望ましくない領域を除去できる最初のフレームワークを紹介した。
より短い時間と少ないユーザ手作業を用いて、複数のビューにまたがって視覚的可視かつ構造的に一貫した結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-10T06:54:22Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。