論文の概要: DeRenderNet: Intrinsic Image Decomposition of Urban Scenes with
Shape-(In)dependent Shading Rendering
- arxiv url: http://arxiv.org/abs/2104.13602v1
- Date: Wed, 28 Apr 2021 07:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:49:02.313860
- Title: DeRenderNet: Intrinsic Image Decomposition of Urban Scenes with
Shape-(In)dependent Shading Rendering
- Title(参考訳): DeRenderNet:形状(In)依存シェーディングレンダリングによる都市景観の内在的画像分解
- Authors: Yongjie Zhu, Jiajun Tang, Si Li, and Boxin Shi
- Abstract要約: 本研究では,アルベドと潜在照明を分解し,形状に依存したシェーディングを描画するディープニューラルネットワークを提案する。
derendernetはシャドウフリーのアルベド地図を作成し、きれいな詳細と形状に依存しないシャドウの正確な予測を行う。
都市シーンにおける高レベル視覚タスクの再現と精度向上に有効であることが示されている。
- 参考スコア(独自算出の注目度): 47.32672657203235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose DeRenderNet, a deep neural network to decompose the albedo and
latent lighting, and render shape-(in)dependent shadings, given a single image
of an outdoor urban scene, trained in a self-supervised manner. To achieve this
goal, we propose to use the albedo maps extracted from scenes in videogames as
direct supervision and pre-compute the normal and shadow prior maps based on
the depth maps provided as indirect supervision. Compared with state-of-the-art
intrinsic image decomposition methods, DeRenderNet produces shadow-free albedo
maps with clean details and an accurate prediction of shadows in the
shape-independent shading, which is shown to be effective in re-rendering and
improving the accuracy of high-level vision tasks for urban scenes.
- Abstract(参考訳): 本研究では,アルベドと潜在照明を分解する深層ニューラルネットワークderendernetを提案する。
この目的を達成するために,ゲーム内のシーンから抽出したアルベドマップを,間接監督として提供される奥行きマップに基づいて,通常の地図と影前の地図を事前計算する手法を提案する。
DeRenderNetは、最先端の固有画像分解法と比較して、鮮明な細部と形状非依存シェーディングにおける影の正確な予測を備えた無影アルベドマップを生成し、都市景観における高次視覚タスクの再レンダリングと精度向上に有効であることが示されている。
関連論文リスト
- Recasting Regional Lighting for Shadow Removal [41.107191352835315]
影領域では、物体テクスチャの劣化度は局所照明に依存する。
影領域の照明層と反射層を推定するシャドーアウェア分解ネットワークを提案する。
次に、照明層における影領域の照明をリキャストする新たな二元補正ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-01T05:08:39Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Learning Physical-Spatio-Temporal Features for Video Shadow Removal [42.95422940263425]
データ駆動型ビデオシャドウ除去モデルであるedNetを提案する。
具体的には、複雑な照明テクスチャを持つシーンに適用可能な局所照明推定を行うために、専用の物理的ブランチが設けられた。
シャドウビデオと組み合わせたデータセットの欠如に対処するため、シャドウのスイッチを制御することで、人気のあるゲームGTAVの助けを借りてデータセットを合成する。
論文 参考訳(メタデータ) (2023-03-16T14:55:31Z) - Deep scene-scale material estimation from multi-view indoor captures [9.232860902853048]
本稿では,物理的なレンダリングが可能なデジタルアセットを自動生成する学習ベースのアプローチを提案する。
提案手法は, 最寄りの解に比べて少ない時間で近似材料マップを生成する。
論文 参考訳(メタデータ) (2022-11-15T10:58:28Z) - Geometry-aware Single-image Full-body Human Relighting [37.381122678376805]
単一イメージの人間のリライティングは、入力画像をアルベド、形状、照明に分解することで、新たな照明条件下でターゲットの人間をリライティングすることを目的としている。
それまでの方法は、アルベドと照明の絡み合いと、硬い影の欠如に悩まされていた。
我々のフレームワークは、難易度の高い照明条件下で、キャストシャドウのような光現実性の高い高周波影を生成することができる。
論文 参考訳(メタデータ) (2022-07-11T10:21:02Z) - Neural Re-Rendering of Humans from a Single Image [80.53438609047896]
本稿では,新しいユーザ定義のポーズと視点の下での人間のニューラルリレンダリング手法を提案する。
私たちのアルゴリズムは、単一の画像から再構築できるパラメトリックメッシュとして体ポーズと形状を表します。
論文 参考訳(メタデータ) (2021-01-11T18:53:47Z) - Neural Reflectance Fields for Appearance Acquisition [61.542001266380375]
シーン内の任意の3次元点における体積密度, 正規および反射特性をエンコードする新しい深部シーン表現であるニューラルリフレクタンス場を提案する。
我々はこの表現を、任意の視点と光の下でニューラルリフレクタンスフィールドから画像を描画できる物理的にベースとした微分可能光線マーチングフレームワークと組み合わせる。
論文 参考訳(メタデータ) (2020-08-09T22:04:36Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。