論文の概要: CodeNeRF: Disentangled Neural Radiance Fields for Object Categories
- arxiv url: http://arxiv.org/abs/2109.01750v1
- Date: Fri, 3 Sep 2021 23:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 10:15:38.036303
- Title: CodeNeRF: Disentangled Neural Radiance Fields for Object Categories
- Title(参考訳): CodeNeRF:オブジェクトカテゴリのための遠方性ニューラルラジアンスフィールド
- Authors: Wonbong Jang, Lourdes Agapito
- Abstract要約: CodeNeRFは暗黙の3Dニューラル表現で、カテゴリ全体にわたるオブジェクトの形状とテクスチャの変化を学習する。
これは、一連のポーズ画像から、目に見えない物体の新たなビューを合成するために訓練することができる。
- 参考スコア(独自算出の注目度): 8.195186340022504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CodeNeRF is an implicit 3D neural representation that learns the variation of
object shapes and textures across a category and can be trained, from a set of
posed images, to synthesize novel views of unseen objects. Unlike the original
NeRF, which is scene specific, CodeNeRF learns to disentangle shape and texture
by learning separate embeddings. At test time, given a single unposed image of
an unseen object, CodeNeRF jointly estimates camera viewpoint, and shape and
appearance codes via optimization. Unseen objects can be reconstructed from a
single image, and then rendered from new viewpoints or their shape and texture
edited by varying the latent codes. We conduct experiments on the SRN
benchmark, which show that CodeNeRF generalises well to unseen objects and
achieves on-par performance with methods that require known camera pose at test
time. Our results on real-world images demonstrate that CodeNeRF can bridge the
sim-to-real gap. Project page: \url{https://github.com/wayne1123/code-nerf}
- Abstract(参考訳): CodeNeRFは暗黙の3Dニューラル表現で、カテゴリ全体にわたるオブジェクトの形状やテクスチャの変化を学習し、ポーズ画像のセットからトレーニングして、目に見えないオブジェクトの新しいビューを合成することができる。
シーン固有のオリジナルのNeRFとは異なり、CodeNeRFは別々の埋め込みを学習することで形状とテクスチャを歪めることを学ぶ。
テスト時には、未確認物体の1つの未表示画像が与えられた場合、CodeNeRFはカメラの視点と形状と外観を最適化することで共同で推定する。
見えないオブジェクトは1つのイメージから再構築でき、新しい視点やその形状やテクスチャから、潜在コードを変えて編集することができる。
我々は、SRNベンチマークで実験を行い、CodeNeRFは未確認オブジェクトによく一般化し、テスト時に既知のカメラのポーズを必要とするメソッドでオンパー性能を達成することを示す。
実世界の画像による結果から,codenerfがsim対実のギャップを橋渡しできることが分かる。
プロジェクトページ: \url{https://github.com/wayne1123/code-nerf}
関連論文リスト
- Knowledge NeRF: Few-shot Novel View Synthesis for Dynamic Articulated Objects [8.981452149411714]
本稿では,動的シーンのための新しいビューを合成するための知識NeRFを提案する。
我々は、音声オブジェクトに対してNeRFモデルを事前訓練し、音声オブジェクトが移動すると、新しい状態における新しいビューを生成することを学習する。
論文 参考訳(メタデータ) (2024-03-31T12:45:23Z) - RePaint-NeRF: NeRF Editting via Semantic Masks and Diffusion Models [36.236190350126826]
本稿では,RGB画像を入力として取り出し,ニューラルシーンの3Dコンテンツを変更可能な新しいフレームワークを提案する。
具体的には,対象オブジェクトを意味的に選択し,事前学習した拡散モデルを用いてNeRFモデルを誘導し,新しい3Dオブジェクトを生成する。
実験の結果,本アルゴリズムは,異なるテキストプロンプト下でのNeRFの3次元オブジェクトの編集に有効であることがわかった。
論文 参考訳(メタデータ) (2023-06-09T04:49:31Z) - NeRFuser: Large-Scale Scene Representation by NeRF Fusion [35.749208740102546]
Neural Radiance Fields (NeRF)のような暗黙的な視覚表現の実用的な利点は、そのメモリ効率である。
既製のNeRFへのアクセスのみを前提としたNeRF登録とブレンディングのための新しいアーキテクチャであるNeRFuserを提案する。
論文 参考訳(メタデータ) (2023-05-22T17:59:05Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - SinNeRF: Training Neural Radiance Fields on Complex Scenes from a Single
Image [85.43496313628943]
本稿では,一眼レフ(SinNeRF)フレームワークについて述べる。
SinNeRFは半教師付き学習プロセスを構築し,幾何学的擬似ラベルを導入・伝播する。
NeRF合成データセット、Local Light Field Fusionデータセット、DTUデータセットなど、複雑なシーンベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2022-04-02T19:32:42Z) - ViewFormer: NeRF-free Neural Rendering from Few Images Using
Transformers [34.4824364161812]
新たなビュー合成は、シーンやオブジェクトをスパースにカバーする少数のコンテキストビューしか与えられない、という問題です。
ゴールはシーンにおける新しい視点を予測することであり、これは学習の事前を必要とする。
ニューラルネットワークの単一パスにおいて,複数のコンテキストビューとクエリのポーズを新しい画像にマッピングする2Dのみの手法を提案する。
論文 参考訳(メタデータ) (2022-03-18T21:08:23Z) - Pix2NeRF: Unsupervised Conditional $\pi$-GAN for Single Image to Neural
Radiance Fields Translation [93.77693306391059]
本研究では,物体のニューラルレージアンス場(NeRF)を生成するパイプラインを提案する。
本手法は,無条件3D画像合成のための生成モデルである$pi$-GANに基づいている。
論文 参考訳(メタデータ) (2022-02-26T15:28:05Z) - BARF: Bundle-Adjusting Neural Radiance Fields [104.97810696435766]
不完全なカメラポーズからNeRFを訓練するためのバンドル調整ニューラルラジアンスフィールド(BARF)を提案します。
BARFは、ニューラルネットワークシーンの表現を効果的に最適化し、大きなカメラのポーズミスを同時に解決する。
これにより、未知のカメラポーズからの映像シーケンスのビュー合成とローカライズが可能になり、視覚ローカライズシステムのための新しい道を開くことができる。
論文 参考訳(メタデータ) (2021-04-13T17:59:51Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z) - pixelNeRF: Neural Radiance Fields from One or Few Images [20.607712035278315]
pixelNeRFは、1つまたは少数の入力画像に条件付された連続的なニューラルシーン表現を予測する学習フレームワークである。
本研究では,単一画像の新規ビュー合成タスクのためのShapeNetベンチマーク実験を行った。
いずれの場合も、ピクセルNeRFは、新しいビュー合成とシングルイメージ3D再構成のための最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-12-03T18:59:54Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。