論文の概要: Eikonal Fields for Refractive Novel-View Synthesis
- arxiv url: http://arxiv.org/abs/2202.00948v1
- Date: Wed, 2 Feb 2022 10:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:51:08.356678
- Title: Eikonal Fields for Refractive Novel-View Synthesis
- Title(参考訳): 屈折型新視点合成のための固有場
- Authors: Mojtaba Bemana, Karol Myszkowski, Jeppe Revall Frisvad, Hans-Peter
Seidel, Tobias Ritschel
- Abstract要約: 現在の溶液は、放射吸収モデルに続く直線に沿った不透明または透明な光輸送を仮定する。
我々は、3次元可変屈折率(IoR)の場を最適化し、それを通る光を、アイコナー光輸送の法則に従って、そのIoRの空間勾配に向かって曲げる。
- 参考スコア(独自算出の注目度): 34.57808314714796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle the problem of generating novel-view images from collections of 2D
images showing refractive and reflective objects. Current solutions assume
opaque or transparent light transport along straight paths following the
emission-absorption model. Instead, we optimize for a field of 3D-varying Index
of Refraction (IoR) and trace light through it that bends toward the spatial
gradients of said IoR according to the laws of eikonal light transport.
- Abstract(参考訳): 屈折・反射物体を示す2次元画像のコレクションから新しい視点画像を生成する問題に対処する。
電流解は、放出吸収モデルに従って直線経路に沿って不透明あるいは透明な光輸送を仮定する。
代わりに、我々は3次元可変屈折率(IoR)の場を最適化し、それを通る光を、アイコナー光輸送の法則に従って、そのIoRの空間勾配に向かって曲げる。
関連論文リスト
- Z-upscaling: Optical Flow Guided Frame Interpolation for Isotropic Reconstruction of 3D EM Volumes [0.0]
異方性3次元EMボリュームの軸方向分解能を高めて等方性3次元再構成を実現するための新しい光学フローベース手法を提案する。
画素レベルの運動は、zに沿って隣接する2次元スライス間で推定され、空間勾配流の推定を用いて補間し、新しい2次元スライスを生成し、等方的ボクセルを生成する。
論文 参考訳(メタデータ) (2024-10-09T16:34:39Z) - Flying with Photons: Rendering Novel Views of Propagating Light [37.06220870989172]
本稿では,新しい移動カメラの視点から,シーンを通して伝播する光の映像を合成する画像・ニューラルレンダリング技術を提案する。
我々のアプローチは、ピコ秒レベルの時間分解能を持つファースト・オブ・イットタイプの多視点ビデオデータセットをキャプチャするための、新しい超高速撮像装置に依存している。
論文 参考訳(メタデータ) (2024-04-09T17:48:52Z) - Neural Radiance Fields for Transparent Object Using Visual Hull [0.8158530638728501]
最近導入されたNeural Radiance Fields (NeRF) はビュー合成法である。
まず,透明物体の3次元形状を視覚的包絡を用いて再構成する。
第二に、スネルの法則に従って透明物体の内部の光線の屈折をシミュレートする。最後に、屈折した光線を通して点をサンプリングし、それをNeRFに挿入する。
論文 参考訳(メタデータ) (2023-12-13T13:15:19Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [62.13932669494098]
本稿では,3次元ガウス表現を用いた3次元ガウス逆レンダリング(GIR)手法を提案する。
最短固有ベクトルを用いて各3次元ガウスの正規性を計算する。
我々は3次元ガウシアン毎に方向対応の放射光を格納し、多重バウンス光輸送を近似するために二次照明をアンタングルするために、効率的なボクセルベースの間接照明追跡方式を採用する。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - SAR-to-Optical Image Translation via Thermodynamics-inspired Network [68.71771171637677]
本稿では,SAR-to-Optical Image Translation (S2O-TDN) のための熱力学インスピレーションネットワークを提案する。
S2O-TDNは熱力学理論から導かれた明示的な設計原理に従い、説明可能性の利点を享受する。
公的なSEN1-2データセットの実験は、より繊細なテクスチャとより定量的な結果を持つ現在の手法よりも提案されたS2O-TDNの利点を示している。
論文 参考訳(メタデータ) (2023-05-23T09:02:33Z) - NeFII: Inverse Rendering for Reflectance Decomposition with Near-Field
Indirect Illumination [48.42173911185454]
逆レンダリング手法は、多視点RGB画像から幾何学、材料、照明を推定することを目的としている。
本稿では,多視点画像から材料と照明を分解するエンドツーエンドの逆レンダリングパイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-29T12:05:19Z) - NEMTO: Neural Environment Matting for Novel View and Relighting Synthesis of Transparent Objects [28.62468618676557]
我々は3次元透明物体をモデル化する最初のエンドツーエンドニューラルネットワークパイプラインであるNEMTOを提案する。
透明物体の2次元像を入力として, 高品質な新規ビューと光合成が可能となる。
論文 参考訳(メタデータ) (2023-03-21T15:50:08Z) - DehazeNeRF: Multiple Image Haze Removal and 3D Shape Reconstruction
using Neural Radiance Fields [56.30120727729177]
DehazeNeRFは,湿潤な環境下で頑健に動作するフレームワークとして紹介する。
提案手法は,複数視点のヘイズ除去,新しいビュー合成,既存手法が失敗する3次元形状再構成を成功させるものである。
論文 参考訳(メタデータ) (2023-03-20T18:03:32Z) - Through the Looking Glass: Neural 3D Reconstruction of Transparent
Shapes [75.63464905190061]
屈折と反射によって誘導される複雑な光路は、従来の多視点ステレオと深いステレオの両方がこの問題を解決するのを妨げている。
携帯電話カメラで取得したいくつかの画像を用いて透明物体の3次元形状を復元する物理ネットワークを提案する。
5-12個の自然画像を用いて, 複雑な透明形状に対する高品質な3次元形状の復元に成功した。
論文 参考訳(メタデータ) (2020-04-22T23:51:30Z) - The TRANSGUIDE: Ultra-bright directional light emission from any
refractive index material [0.0]
Transfer Waveguide (TRANSGUIDE) は、全内部反射光トラップと発散放出に対する実用的な解決策である。
相互性を呼び起こすことで、光を仮想双極子として一時的に保存し、再び回復することができる。
論文 参考訳(メタデータ) (2020-03-24T16:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。