論文の概要: ReLight My NeRF: A Dataset for Novel View Synthesis and Relighting of
Real World Objects
- arxiv url: http://arxiv.org/abs/2304.10448v1
- Date: Thu, 20 Apr 2023 16:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 12:28:27.693905
- Title: ReLight My NeRF: A Dataset for Novel View Synthesis and Relighting of
Real World Objects
- Title(参考訳): relight my nerf: 現実世界のオブジェクトの新しいビュー合成とリライトのためのデータセット
- Authors: Marco Toschi, Riccardo De Matteo, Riccardo Spezialetti, Daniele De
Gregorio, Luigi Di Stefano, Samuele Salti
- Abstract要約: 本研究では,1光時(OLAT)条件下で現実世界の物体をフレーミングするReNe(Relighting NeRF)と呼ばれる新しいデータセットを提案する。
我々は、複雑な幾何学と挑戦的な材料を持つ様々な物体を描いた合計20のシーンを公開します。
各シーンには、40のOLAT条件下で50の視点から取得された2000の画像が含まれている。
- 参考スコア(独自算出の注目度): 14.526827265012045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus on the problem of rendering novel views from a Neural
Radiance Field (NeRF) under unobserved light conditions. To this end, we
introduce a novel dataset, dubbed ReNe (Relighting NeRF), framing real world
objects under one-light-at-time (OLAT) conditions, annotated with accurate
ground-truth camera and light poses. Our acquisition pipeline leverages two
robotic arms holding, respectively, a camera and an omni-directional point-wise
light source. We release a total of 20 scenes depicting a variety of objects
with complex geometry and challenging materials. Each scene includes 2000
images, acquired from 50 different points of views under 40 different OLAT
conditions. By leveraging the dataset, we perform an ablation study on the
relighting capability of variants of the vanilla NeRF architecture and identify
a lightweight architecture that can render novel views of an object under novel
light conditions, which we use to establish a non-trivial baseline for the
dataset. Dataset and benchmark are available at
https://eyecan-ai.github.io/rene.
- Abstract(参考訳): 本稿では,観測されていない光条件下でのニューラルラジアンス場(NeRF)からの新たなビューのレンダリング問題に焦点を当てる。
この目的のために我々は,ワンライト・アット・タイム(OLAT)条件下で現実世界の物体をフレーミングするReNe(Relighting NeRF)と呼ばれる新しいデータセットを導入する。
我々の買収パイプラインは、それぞれカメラと全方向ポイントワイド光源という2つのロボットアームの保持を活用している。
複雑な幾何学と難解な素材を持つ様々な物体を描いた合計20のシーンを公開する。
各シーンには、40の異なるオーラト条件の下で50の異なる視点から取得された2000の画像が含まれている。
データセットを活用することにより,バニラ型NeRFアーキテクチャのリライティング能力に関するアブレーション研究を行い,新しい光条件下でオブジェクトの新たなビューを描画できる軽量アーキテクチャを特定し,データセットの非自明なベースラインを確立する。
datasetとbenchmarkはhttps://eyecan-ai.github.io/reneで入手できる。
関連論文リスト
- Objects With Lighting: A Real-World Dataset for Evaluating Reconstruction and Rendering for Object Relighting [16.938779241290735]
写真からオブジェクトを再構成し、仮想的に新しい環境に配置することは、標準的な新しいビュー合成タスクを超えます。
この研究は、リライトのためのオブジェクトの再構築とレンダリングを測定するための実世界のデータセットを提供する。
論文 参考訳(メタデータ) (2024-01-17T11:02:52Z) - Neural Relighting with Subsurface Scattering by Learning the Radiance
Transfer Gradient [73.52585139592398]
本稿では,ボリュームレンダリングによる放射移動場学習のための新しいフレームワークを提案する。
我々は、我々のコードと、地下散乱効果を持つ新しい光ステージのオブジェクトデータセットを公開します。
論文 参考訳(メタデータ) (2023-06-15T17:56:04Z) - LANe: Lighting-Aware Neural Fields for Compositional Scene Synthesis [65.20672798704128]
運転シーンの合成のための照明対応ニューラルネットワーク(LANe)を提案する。
我々は,静的背景要素と過渡要素をワールドニューラルおよびクラス固有のオブジェクトニューラルに切り離すシーン表現を学習する。
CARLAシミュレータでレンダリングした様々な照明条件の合成データセット上で,本モデルの性能を示す。
論文 参考訳(メタデータ) (2023-04-06T17:59:25Z) - A Large-Scale Outdoor Multi-modal Dataset and Benchmark for Novel View
Synthesis and Implicit Scene Reconstruction [26.122654478946227]
ニューラル・ラジアンス・フィールズ(NeRF)は、単一物体のシーン再構成と新しいビュー合成において印象的な成果を上げている。
高価なデータ取得と校正コストのため、大規模なNeRF評価のための統一された屋外シーンデータセットは存在しない。
本稿では,大規模な屋外マルチモーダルデータセットであるOMMOデータセットを提案する。
論文 参考訳(メタデータ) (2023-01-17T10:15:32Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - Unsupervised Discovery and Composition of Object Light Fields [57.198174741004095]
オブジェクト中心の合成シーン表現において、オブジェクトを光場として表現することを提案する。
オブジェクト中心の光場から大域的な光場を再構成できる新しい光場合成モジュールを提案する。
論文 参考訳(メタデータ) (2022-05-08T17:50:35Z) - NeLF: Practical Novel View Synthesis with Neural Light Field [93.41020940730915]
複雑なシーンの新規なビュー合成のための実用的で堅牢なディープラーニングソリューションを提案する。
我々のアプローチでは、連続的なシーンは光場、すなわち光線の集合として表現され、それぞれが対応する色を持つ。
インタラクティブなフレームレートを維持しながら、最新の新しいビュー合成結果を実現します。
論文 参考訳(メタデータ) (2021-05-15T01:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。