論文の概要: Virtual light transport matrices for non-line-of-sight imaging
- arxiv url: http://arxiv.org/abs/2103.12622v1
- Date: Tue, 23 Mar 2021 15:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:44:36.856538
- Title: Virtual light transport matrices for non-line-of-sight imaging
- Title(参考訳): 非視線イメージングのための仮想光輸送行列
- Authors: Julio Marco, Adrian Jarabo, Ji Hyun Nam, Xiaochun Liu, Miguel \'Angel
Cosculluela, Andreas Velten, Diego Gutierrez
- Abstract要約: 光輸送マトリックス(LTM)は、光がシーンとどのように相互作用するかを記述する、ラインオブサイト(LOS)イメージングの計測ツールです。
我々は,NLOS画像のための最近の仮想フォワード光伝搬モデルとLOS光伝達方程式を結合して,NLOSシナリオのLTMを推定するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.19505452561486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The light transport matrix (LTM) is an instrumental tool in line-of-sight
(LOS) imaging, describing how light interacts with the scene and enabling
applications such as relighting or separation of illumination components. We
introduce a framework to estimate the LTM of non-line-of-sight (NLOS)
scenarios, coupling recent virtual forward light propagation models for NLOS
imaging with the LOS light transport equation. We design computational
projector-camera setups, and use these virtual imaging systems to estimate the
transport matrix of hidden scenes. We introduce the specific illumination
functions to compute the different elements of the matrix, overcoming the
challenging wide-aperture conditions of NLOS setups. Our NLOS light transport
matrix allows us to (re)illuminate specific locations of a hidden scene, and
separate direct, first-order indirect, and higher-order indirect illumination
of complex cluttered hidden scenes, similar to existing LOS techniques.
- Abstract(参考訳): 光移動マトリックス(light transport matrix, ltm)は、光がシーンとどのように相互作用するかを説明し、照明部品の照明や分離といった応用を可能にする、視線(los)イメージングのインストゥルメンタルツールである。
我々は,NLOS画像のための最近の仮想フォワード光伝搬モデルとLOS光伝達方程式を結合して,NLOSシナリオのLTMを推定するフレームワークを提案する。
計算プロジェクタ・カメラのセットアップを設計し,これらの仮想イメージングシステムを用いて隠れシーンの移動行列を推定する。
行列の異なる要素を計算するための特定の照明関数を導入し、NLOSセットアップの挑戦的な広開口条件を克服する。
私たちのnlos light transport matrixは、隠れたシーンの特定の場所を(再)照らし、既存のlos技術に似た、複雑な散らかった隠れたシーンの直接、一階、高階の間接照明を分離できます。
関連論文リスト
- GS-Phong: Meta-Learned 3D Gaussians for Relightable Novel View Synthesis [63.5925701087252]
本稿では,3次元ガウス点の集合を用いて,点光で照らされたシーンを表現する手法を提案する。
Blinn-Phongモデルにインスパイアされた我々の手法は、シーンを周囲、拡散、および特異成分に分解する。
照明条件に依存しない幾何学的情報の分解を容易にするため,新しい二段階最適化に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-31T13:48:54Z) - Passive Non-Line-of-Sight Imaging with Light Transport Modulation [45.992851199035336]
一つのネットワークで複数の光輸送条件を効果的に処理する新しい受動NLOSイメージング法であるNLOS-LTMを提案する。
我々は、投影画像から潜在光輸送表現を推測し、この表現を用いて、投影画像から隠されたイメージを再構成するネットワークを変調する。
大規模受動的NLOSデータセットの実験により,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2023-12-26T11:49:23Z) - Self-Calibrating, Fully Differentiable NLOS Inverse Rendering [15.624750787186803]
NLOS(Time-resolved Non-line-of-Sight)イメージングは、可視光線面で測定された間接照明の光路を反転させることで、隠れたシーンを再構成する。
隠れたシーンの再構成において、画像パラメータを自己校正する完全微分可能なNLOS逆レンダリングパイプラインを導入する。
本手法のロバスト性は, 高い騒音レベル下であっても, 幾何とアルベドを一貫して再構成するものである。
論文 参考訳(メタデータ) (2023-09-21T13:15:54Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Free-viewpoint Indoor Neural Relighting from Multi-view Stereo [5.306819482496464]
本稿では,対話型自由視点ナビゲーションが可能な屋内シーンを撮影するためのニューラルリライティングアルゴリズムを提案する。
本手法では, 鋳造影や複雑な光沢物質を連続的にレンダリングしながら, 照明を合成的に変化させることができる。
論文 参考訳(メタデータ) (2021-06-24T20:09:40Z) - Sparse Needlets for Lighting Estimation with Spherical Transport Loss [89.52531416604774]
NeedleLightは、新しい照明推定モデルであり、必要に応じて照明を表現し、周波数領域と空間領域を共同で照明推定することができる。
大規模な実験により、NeedleLightは、最先端の手法と比較して、複数の評価指標で常に優れた照明推定を実現していることがわかった。
論文 参考訳(メタデータ) (2021-06-24T15:19:42Z) - Neural Ray-Tracing: Learning Surfaces and Reflectance for Relighting and
View Synthesis [28.356700318603565]
シーン間の光輸送を明示的にモデル化し、従来の統合スキームとレンダリング方程式に頼ってシーンを再構成します。
従来のレンダリング法で確立された表面表現による分解輸送を学習することにより、自然に形状、反射性、照明、シーン構成の編集が容易になる。
提案手法は,NERVデータセットのサブセットの合成およびキャプチャビューから得られたシーン編集,リライティング,リフレクタンス推定に有効である。
論文 参考訳(メタデータ) (2021-04-28T03:47:48Z) - Light Stage Super-Resolution: Continuous High-Frequency Relighting [58.09243542908402]
光ステージから採取した人間の顔の「超解像」を学習ベースで解析する手法を提案する。
本手法では,ステージ内の隣接する照明に対応する撮像画像を集約し,ニューラルネットワークを用いて顔の描画を合成する。
我々の学習モデルは、リアルな影と特異なハイライトを示す任意の光方向のレンダリングを生成することができる。
論文 参考訳(メタデータ) (2020-10-17T23:40:43Z) - Neural Light Transport for Relighting and View Synthesis [70.39907425114302]
シーンの光輸送(LT)は、異なる照明と視界の方向の下でどのように見えるかを記述する。
本研究では、既知の幾何学的性質のテクスチャアトラスに埋め込まれたLTの神経表現を学習するための半パラメトリック手法を提案する。
照明条件下では,従来観測されていた照度と視界を融合させて,同じシーンの新たなイメージを合成する方法を示す。
論文 参考訳(メタデータ) (2020-08-09T20:13:15Z) - Scene relighting with illumination estimation in the latent space on an
encoder-decoder scheme [68.8204255655161]
本報告では,その目的を達成するための手法について述べる。
我々のモデルは、シーン内容、光源位置、色温度の異なる、人工的な場所のレンダリングデータセットに基づいて訓練されている。
本データセットでは,被写体の潜在空間表現における光条件の推測と置き換えを目的とした照明推定成分を用いたネットワークを用いた。
論文 参考訳(メタデータ) (2020-06-03T15:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。