論文の概要: A General Albedo Recovery Approach for Aerial Photogrammetric Images through Inverse Rendering
- arxiv url: http://arxiv.org/abs/2409.03032v1
- Date: Wed, 4 Sep 2024 18:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-07 00:59:44.079774
- Title: A General Albedo Recovery Approach for Aerial Photogrammetric Images through Inverse Rendering
- Title(参考訳): 逆レンダリングによる空中測光画像の一般アルベド復元手法
- Authors: Shuang Song, Rongjun Qin,
- Abstract要約: 本稿では,自然光照射下での典型的な航空写真からのアルベド回収のための一般的な画像形成モデルを提案する。
我々のアプローチは、太陽の照明と風景の幾何学の両方が空中光度計で推定可能であるという事実に基づいている。
- 参考スコア(独自算出の注目度): 7.874736360019618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling outdoor scenes for the synthetic 3D environment requires the recovery of reflectance/albedo information from raw images, which is an ill-posed problem due to the complicated unmodeled physics in this process (e.g., indirect lighting, volume scattering, specular reflection). The problem remains unsolved in a practical context. The recovered albedo can facilitate model relighting and shading, which can further enhance the realism of rendered models and the applications of digital twins. Typically, photogrammetric 3D models simply take the source images as texture materials, which inherently embed unwanted lighting artifacts (at the time of capture) into the texture. Therefore, these polluted textures are suboptimal for a synthetic environment to enable realistic rendering. In addition, these embedded environmental lightings further bring challenges to photo-consistencies across different images that cause image-matching uncertainties. This paper presents a general image formation model for albedo recovery from typical aerial photogrammetric images under natural illuminations and derives the inverse model to resolve the albedo information through inverse rendering intrinsic image decomposition. Our approach builds on the fact that both the sun illumination and scene geometry are estimable in aerial photogrammetry, thus they can provide direct inputs for this ill-posed problem. This physics-based approach does not require additional input other than data acquired through the typical drone-based photogrammetric collection and was shown to favorably outperform existing approaches. We also demonstrate that the recovered albedo image can in turn improve typical image processing tasks in photogrammetry such as feature and dense matching, edge, and line extraction.
- Abstract(参考訳): 合成3D環境のための屋外シーンのモデリングには、生画像からの反射・アルベド情報の復元が必要であるが、これはこの過程における複雑な非モデル物理学(例えば、間接照明、体積散乱、スペクトル反射)による不適切な問題である。
その問題は実際的な文脈では未解決のままである。
回収されたアルベドは、モデルリライティングとシェーディングを容易にし、レンダリングされたモデルのリアリズムとデジタルツインの応用をさらに強化することができる。
通常、フォトグラムの3Dモデルでは、ソースイメージをテクスチャ素材として扱うだけで、不要な光のアーティファクト(キャプチャの時点で)をテクスチャに埋め込むことができる。
したがって、これらの汚染されたテクスチャは、現実的なレンダリングを可能にするために合成環境に最適である。
さらに、これらの組込み環境照明は、画像にマッチする不確実性を引き起こす異なる画像間の光一貫性にさらに課題をもたらす。
本稿では,自然照度下での典型的な空中測光画像からアルベドを復元するための一般的な画像形成モデルを提案する。
我々のアプローチは、太陽の照明と風景の幾何学の両方が空中光度計で推定可能であるという事実に基づいており、この不測な問題に対して直接の入力を提供することができる。
この物理に基づくアプローチは、典型的なドローンベースのフォトグラム収集によって得られたデータ以外の追加の入力を必要としない。
また, 得られたアルベド画像は, 特徴量, 高密度マッチング, エッジ, 線抽出などの画像解析において, 典型的な画像処理タスクを改善することができることを示した。
関連論文リスト
- IntrinsicAnything: Learning Diffusion Priors for Inverse Rendering Under Unknown Illumination [37.96484120807323]
本稿では,未知の静止照明条件下で撮影されたポーズ画像から対象物質を回収することを目的とする。
我々は、最適化プロセスの正規化のための生成モデルを用いて、その材料を事前に学習する。
実世界および合成データセットを用いた実験により,本手法が材料回収における最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-04-17T17:45:08Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Diffusion Posterior Illumination for Ambiguity-aware Inverse Rendering [63.24476194987721]
画像からシーン特性を推定する逆レンダリングは、困難な逆問題である。
既存のソリューションの多くは、プリエントを逆レンダリングパイプラインに組み込んで、プラウシブルなソリューションを奨励している。
本稿では,自然照明マップ上で事前学習した確率拡散モデルを最適化フレームワークに統合する手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T12:39:28Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Geometry-aware Single-image Full-body Human Relighting [37.381122678376805]
単一イメージの人間のリライティングは、入力画像をアルベド、形状、照明に分解することで、新たな照明条件下でターゲットの人間をリライティングすることを目的としている。
それまでの方法は、アルベドと照明の絡み合いと、硬い影の欠如に悩まされていた。
我々のフレームワークは、難易度の高い照明条件下で、キャストシャドウのような光現実性の高い高周波影を生成することができる。
論文 参考訳(メタデータ) (2022-07-11T10:21:02Z) - A Novel Intrinsic Image Decomposition Method to Recover Albedo for
Aerial Images in Photogrammetry Processing [3.556015072520384]
フォトグラム画像による表面アルベドは、VR/AR/MRおよびデジタルツインにおける下流の応用を促進することができる。
これらのテクスチャは直接画像から導出されるので、標準フォトグラムのパイプラインはこれらの応用に最適である。
自然照明条件下での屋外空間画像に対する画像形成モデルを提案する。
次に、逆モデルを導出し、典型的なフォトグラム積を幾何学の初期近似として利用してアルベドを推定する。
論文 参考訳(メタデータ) (2022-04-08T15:50:52Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。