論文の概要: X-Fields: Implicit Neural View-, Light- and Time-Image Interpolation
- arxiv url: http://arxiv.org/abs/2010.00450v1
- Date: Thu, 1 Oct 2020 14:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:37:10.578487
- Title: X-Fields: Implicit Neural View-, Light- and Time-Image Interpolation
- Title(参考訳): X-Fields:暗黙のニューラルビュー、ライト、タイムイメージの補間
- Authors: Mojtaba Bemana, Karol Myszkowski, Hans-Peter Seidel, Tobias Ritschel
- Abstract要約: X-Field - 異なるビュー、時間、照明条件で撮影された2D画像の集合を表現することを提案する。
このNNを新しい座標で実行することで、ジョイントビュー、時間または光が得られる。
我々のX-Field表現は、数分で1つのシーンで訓練され、訓練可能なパラメータのコンパクトなセットにつながります。
- 参考スコア(独自算出の注目度): 37.77407176570283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We suggest to represent an X-Field -a set of 2D images taken across different
view, time or illumination conditions, i.e., video, light field, reflectance
fields or combinations thereof-by learning a neural network (NN) to map their
view, time or light coordinates to 2D images. Executing this NN at new
coordinates results in joint view, time or light interpolation. The key idea to
make this workable is a NN that already knows the "basic tricks" of graphics
(lighting, 3D projection, occlusion) in a hard-coded and differentiable form.
The NN represents the input to that rendering as an implicit map, that for any
view, time, or light coordinate and for any pixel can quantify how it will move
if view, time or light coordinates change (Jacobian of pixel position with
respect to view, time, illumination, etc.). Our X-Field representation is
trained for one scene within minutes, leading to a compact set of trainable
parameters and hence real-time navigation in view, time and illumination.
- Abstract(参考訳): ニューラルネットワーク(nn)を学習して、異なる視点、時間、照明条件、すなわち映像、光場、反射場、あるいはそれらの組み合わせをまたいで撮影された2d画像の集合を、その視野、時間、光座標を2d画像にマッピングする。
このNNを新しい座標で実行すると、ジョイントビュー、時間または光補間が発生する。
これを実現するための重要なアイデアは、グラフィック(照明、3Dプロジェクション、オクルージョン)の「基本的なトリック」を、ハードコードで微分可能な形式で既に知っているNNである。
NNは、そのレンダリングに対する入力を暗黙の地図として表現し、任意のビュー、時間、または光の座標に対して、ビュー、時間または光の座標が変化した場合、どのように動くかを定量化することができる(ビュー、時間、照明等に関する画素位置のヤコビアン)。
私たちのX-Field表現は、数分で1つのシーンでトレーニングされ、訓練可能なパラメータのセットがコンパクトになり、ビュー、時間、照明におけるリアルタイムナビゲーションが実現します。
関連論文リスト
- Monocular Visual Place Recognition in LiDAR Maps via Cross-Modal State Space Model and Multi-View Matching [2.400446821380503]
我々はRGB画像とポイントクラウドの両方のディスクリプタを学習するための効率的なフレームワークを導入する。
視覚状態空間モデル(VMamba)をバックボーンとして、ピクセルビューとシーンの共同トレーニング戦略を採用している。
視覚的な3Dポイントオーバーラップ戦略は、マルチビューの監視のために、ポイントクラウドビューとRGBイメージの類似性を定量化するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T18:31:41Z) - Neural Scene Chronology [79.51094408119148]
我々は、視点、照明、時間の独立した制御で写真リアルなレンダリングをレンダリングできる、時間変化の3Dモデルを再構築することを目指している。
本研究では,画像ごとの照明を埋め込んだ時空間放射場として,時間的に変化するシーン変化を学習ステップ関数のセットを用いて符号化する。
論文 参考訳(メタデータ) (2023-06-13T17:59:58Z) - altiro3D: Scene representation from single image and novel view
synthesis [0.0]
altiro3Dは、元のRGB画像やフラットビデオから始まる現実を表現するために開発されたライブラリである。
ライトフィールド(あるいはネイティブ)の画像やビデオを生成して、リアルな3D体験を得られる。
論文 参考訳(メタデータ) (2023-04-02T16:03:44Z) - Light Field Networks: Neural Scene Representations with
Single-Evaluation Rendering [60.02806355570514]
2次元観察から3Dシーンの表現を推定することは、コンピュータグラフィックス、コンピュータビジョン、人工知能の基本的な問題である。
そこで我々は,360度4次元光場における基礎となる3次元シーンの形状と外観の両面を表現した新しいニューラルシーン表現,光場ネットワーク(LFN)を提案する。
LFNからレイをレンダリングするには*single*ネットワークの評価しか必要としない。
論文 参考訳(メタデータ) (2021-06-04T17:54:49Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。