論文の概要: Unsupervised Discovery of Object Radiance Fields
- arxiv url: http://arxiv.org/abs/2107.07905v1
- Date: Fri, 16 Jul 2021 13:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 17:56:12.803193
- Title: Unsupervised Discovery of Object Radiance Fields
- Title(参考訳): 物体放射界の教師なし発見
- Authors: Hong-Xing Yu, Leonidas J. Guibas, Jiajun Wu
- Abstract要約: Object Radiance Fields (uORF)は、複雑なシーンを1つの画像から多様でテクスチャ化された背景で分解することを学ぶ。
教師なしの3次元シーンセグメンテーション、新しいビュー合成、および3つのデータセットのシーン編集において、uORFが優れていることを示す。
- 参考スコア(独自算出の注目度): 86.20162437780671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of inferring an object-centric scene representation from
a single image, aiming to derive a representation that explains the image
formation process, captures the scene's 3D nature, and is learned without
supervision. Most existing methods on scene decomposition lack one or more of
these characteristics, due to the fundamental challenge in integrating the
complex 3D-to-2D image formation process into powerful inference schemes like
deep networks. In this paper, we propose unsupervised discovery of Object
Radiance Fields (uORF), integrating recent progresses in neural 3D scene
representations and rendering with deep inference networks for unsupervised 3D
scene decomposition. Trained on multi-view RGB images without annotations, uORF
learns to decompose complex scenes with diverse, textured background from a
single image. We show that uORF performs well on unsupervised 3D scene
segmentation, novel view synthesis, and scene editing on three datasets.
- Abstract(参考訳): 本研究では,1つの画像からオブジェクト中心のシーン表現を推定する問題について検討し,画像形成過程を説明する表現を導出し,シーンの3D特性を捉え,監督なしに学習する。
シーン分解における既存の手法の多くは、複雑な3D-to-2D画像生成プロセスをディープネットワークのような強力な推論手法に統合するという根本的な課題のために、これらの特徴を欠いている。
本稿では,物体放射場(uORF)の非教師的発見を提案し,ニューラル3次元シーン表現の最近の進歩と,教師なし3次元シーン分解のための深部推論ネットワークとのレンダリングを統合する。
アノテーションのないマルチビューRGBイメージに基づいて、uORFは複雑なシーンを1つの画像から多様でテクスチャ化された背景で分解することを学ぶ。
我々は,uORFが教師なしの3次元シーンセグメンテーション,新しいビュー合成,3つのデータセットのシーン編集に優れていることを示す。
関連論文リスト
- Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Unsupervised Multi-View Object Segmentation Using Radiance Field
Propagation [55.9577535403381]
本稿では,未ラベルのシーンの多視点画像のみを考慮し,再構成中の3次元オブジェクトのセグメント化に新たなアプローチを提案する。
提案手法の核となるのは,2方向光度損失を持つ個々の物体の放射界に対する新しい伝搬戦略である。
我々の知る限り、RFPはニューラルレイディアンスフィールド(NeRF)のための3次元シーンオブジェクトセグメンテーションに取り組むための最初の教師なしアプローチである。
論文 参考訳(メタデータ) (2022-10-02T11:14:23Z) - Neural Feature Fusion Fields: 3D Distillation of Self-Supervised 2D
Image Representations [92.88108411154255]
本稿では,3次元シーンとして再構成可能な複数画像の解析に後者を適用する際に,高密度な2次元画像特徴抽出器を改善する手法を提案する。
本手法は,手動ラベルを使わずに,シーン固有のニューラルネットワークの文脈における意味理解を可能にするだけでなく,自己監督型2Dベースラインよりも一貫して改善されていることを示す。
論文 参考訳(メタデータ) (2022-09-07T23:24:09Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Decomposing NeRF for Editing via Feature Field Distillation [14.628761232614762]
NeRFで表現されるシーンの編集は、基礎となるコネクショナリスト表現がオブジェクト指向や構成的ではないため、難しい。
本研究では,NeRFのセマンティックなシーン分解の問題に対処し,クエリに基づく局所的な編集を可能にする。
本稿では,市販の自己監督型2次元画像特徴抽出器の知識を,放射場と平行に最適化された3次元特徴場に抽出することを提案する。
論文 参考訳(メタデータ) (2022-05-31T07:56:09Z) - Decomposing 3D Scenes into Objects via Unsupervised Volume Segmentation [26.868351498722884]
ニューラルラジアンスフィールド(NeRF)の集合として表現された3Dモデルにシーンの単一のイメージを変換する手法であるObSuRFを紹介します。
RGB-D入力でのNeRFのトレーニングを可能にする新しい損失を導き出し、より計算的に学習を効率化します。
論文 参考訳(メタデータ) (2021-04-02T16:59:29Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。