論文の概要: Differentiable Shadow Mapping for Efficient Inverse Graphics
- arxiv url: http://arxiv.org/abs/2308.10896v1
- Date: Mon, 21 Aug 2023 17:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 12:18:24.164701
- Title: Differentiable Shadow Mapping for Efficient Inverse Graphics
- Title(参考訳): 効率的な逆グラフィックスのための微分可能シャドーマッピング
- Authors: Markus Worchel and Marc Alexa
- Abstract要約: トライアングルメッシュの微分可能なレンダリングにおいて,影を効率的に生成する方法を示す。
微分可能な影写像は、微分可能な光輸送シミュレーションよりも桁違いに高速であることを示す。
- 参考スコア(独自算出の注目度): 13.95376373560987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show how shadows can be efficiently generated in differentiable rendering
of triangle meshes. Our central observation is that pre-filtered shadow
mapping, a technique for approximating shadows based on rendering from the
perspective of a light, can be combined with existing differentiable
rasterizers to yield differentiable visibility information. We demonstrate at
several inverse graphics problems that differentiable shadow maps are orders of
magnitude faster than differentiable light transport simulation with similar
accuracy -- while differentiable rasterization without shadows often fails to
converge.
- Abstract(参考訳): トライアングルメッシュの微分可能なレンダリングにおいて,影を効率的に生成する方法を示す。
我々の中心的な観察は、光のレンダリングに基づく影の近似技術である事前フィルタリングシャドウマッピングが、既存のラスタライザと組み合わせることで、異なる視認性情報を得ることができることである。
我々は,微分可能なシャドウマップが微分可能な光輸送シミュレーションよりも1桁早く,同じ精度で計算できるという,いくつかの逆グラフィックス問題を示す。
関連論文リスト
- Cross-Modal Spherical Aggregation for Weakly Supervised Remote Sensing Shadow Removal [22.4845448174729]
本研究では,S2-ShadowNetと呼ばれる球面特徴空間を持つ弱教師付きシャドウ除去ネットワークを提案する。
具体的には、クロスドメインマッピングを学習するために、モーダル変換(可視赤外)モデルを使用し、現実的な赤外線サンプルを生成する。
シャドウマスクを用いた4000個のシャドウ画像を含む,大規模に監督されたシャドウ除去ベンチマークに寄与する。
論文 参考訳(メタデータ) (2024-06-25T11:14:09Z) - DANI-Net: Uncalibrated Photometric Stereo by Differentiable Shadow
Handling, Anisotropic Reflectance Modeling, and Neural Inverse Rendering [75.86523223933912]
非平衡測光ステレオ(UPS)は、未知の光によってもたらされる固有の曖昧さのために困難である。
異方性シャドーハンドリングと異方性リフレクタンスモデリングを備えた逆レンダリングフレームワークであるDANI-Netを提案する。
我々のネットワークは、2つの異なる経路を通る影と異方性反射の手がかりから恩恵を受ける。
論文 参考訳(メタデータ) (2023-03-27T11:10:54Z) - ShadowFormer: Global Context Helps Image Shadow Removal [41.742799378751364]
シャドウ領域と非シャドウ領域のグローバルな文脈的相関を利用して、ディープシャドウ除去モデルを構築することは依然として困難である。
そこで我々はまず、ShandowFormerと呼ばれる新しいトランスフォーマーベースのネットワークを導出するRetinexベースのシャドウモデルを提案する。
グローバル情報を階層的にキャプチャするために,マルチスケールチャネルアテンションフレームワークが使用される。
本稿では,影と非陰影領域のコンテキスト相関を効果的にモデル化するために,影の相互作用を考慮したSIM(Shadow-Interaction Module)を提案する。
論文 参考訳(メタデータ) (2023-02-03T10:54:52Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - Shadow-Aware Dynamic Convolution for Shadow Removal [80.82708225269684]
シャドウ領域と非シャドウ領域間の相互依存を分離するための新しいシャドウ・アウェア・ダイナミック・コンボリューション(SADC)モジュールを提案する。
我々のSADCは、非シャドウ領域の色マッピングが学習しやすいという事実に触発され、軽量な畳み込みモジュールで非シャドウ領域を処理する。
我々は,非シャドウ地域からシャドウ地域への情報フローを強化するために,新しいコンボリューション内蒸留損失を開発した。
論文 参考訳(メタデータ) (2022-05-10T14:00:48Z) - Towards Learning Neural Representations from Shadows [11.60149896896201]
本稿では,シーンに存在する影のみから,ニューラルシーンの表現を学習する手法を提案する。
我々のフレームワークは高度に一般化可能であり、既存の3D再構成技術と協調して動作する。
論文 参考訳(メタデータ) (2022-03-29T23:13:41Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z) - Efficient and Differentiable Shadow Computation for Inverse Problems [64.70468076488419]
微分可能幾何計算は画像に基づく逆問題に対する関心が高まっている。
微分可能な可視性とソフトシャドウ計算のための効率的かつ効率的なアプローチを提案する。
定式化は微分可能であるため, テクスチャ, 照明, 剛体ポーズ, 画像からの変形回復などの逆問題を解くために使用できる。
論文 参考訳(メタデータ) (2021-04-01T09:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。