論文の概要: Physics Based Differentiable Rendering for Inverse Problems and Beyond
- arxiv url: http://arxiv.org/abs/2412.08563v1
- Date: Wed, 11 Dec 2024 17:31:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:01:19.164022
- Title: Physics Based Differentiable Rendering for Inverse Problems and Beyond
- Title(参考訳): 逆問題とそれ以上の物理に基づく微分レンダリング
- Authors: Preetish Kakkar, Srijani Mukherjee, Hariharan Ragothaman, Vishal Mehta,
- Abstract要約: 物理ベースの微分可能レンダリング(PBDR)はコンピュータビジョン、グラフィックス、機械学習において効率的な方法となっている。
これらの能力により、自律的なナビゲーション、シーン再構築、材料設計など幅広い分野において、優れたレンダリングが採用されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Physics-based differentiable rendering (PBDR) has become an efficient method in computer vision, graphics, and machine learning for addressing an array of inverse problems. PBDR allows patterns to be generated from perceptions which can be applied to enhance object attributes like geometry, substances, and lighting by adding physical models of light propagation and materials interaction. Due to these capabilities, distinguished rendering has been employed in a wider range of sectors such as autonomous navigation, scene reconstruction, and material design. We provide an extensive overview of PBDR techniques in this study, emphasizing their creation, effectiveness, and limitations while managing inverse situations. We demonstrate modern techniques and examine their value in everyday situations.
- Abstract(参考訳): 物理ベースの微分可能レンダリング(PBDR)は、コンピュータビジョン、グラフィックス、機械学習において、逆問題に対処するための効率的な方法となっている。
PBDRは、光の伝播と物質相互作用の物理的モデルを追加することで、幾何学、物質、照明などの物体特性を高めるために応用できる知覚からパターンを生成することができる。
これらの能力により、自律的なナビゲーション、シーン再構築、材料設計など幅広い分野において、優れたレンダリングが採用されている。
本研究はPBDR技術の概要を概観し,逆の状況を管理しながら,その生成,有効性,限界を強調した。
近代的手法を実証し,その価値を日々の状況で検証する。
関連論文リスト
- IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - Physics Meets Pixels: PDE Models in Image Processing [55.2480439325792]
部分微分方程式 (Partial Differential Equations, PDE) は、画像処理と解析のための強力なツールとして長年認識されてきた。
画像処理タスクに特化して設計された新しい物理ベースPDEモデルを提案する。
論文 参考訳(メタデータ) (2024-12-11T23:11:50Z) - Material Transforms from Disentangled NeRF Representations [23.688782106067166]
異なるシーン間で物質変換を伝達する新しい手法を提案する。
両方向反射率分布関数 (BRDF) を, 様々な条件下で観測された一対のシーンからマップする。
学習された変換は、同じ素材で見えないシーンに適用できるため、学習した変換を任意のレベルの強度で効果的にレンダリングすることができる。
論文 参考訳(メタデータ) (2024-11-12T18:59:59Z) - Physics-based Indirect Illumination for Inverse Rendering [70.27534648770057]
本稿では,複数視点のRGB画像からシーンの照明,幾何学,材料を学習する物理ベースの逆レンダリング手法を提案する。
副産物として、我々の物理ベースの逆レンダリングモデルは、フレキシブルでリアルな素材編集やリライティングを容易にする。
論文 参考訳(メタデータ) (2022-12-09T07:33:49Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - IRISformer: Dense Vision Transformers for Single-Image Inverse Rendering
in Indoor Scenes [99.76677232870192]
我々は、高密度な視覚変換器であるIRISformerが、逆レンダリングに必要なシングルタスクとマルチタスクの推論の両方で優れていることを示す。
具体的には,屋内シーンの単一画像から深度,正規度,空間変化アルベド,粗さ,照明を同時に推定するトランスフォーマーアーキテクチャを提案する。
ベンチマークデータセットを用いた評価では、上記の各タスクについて最先端の結果が示され、オブジェクト挿入や物質編集などの応用を、制約のない1つの実画像で実現する。
論文 参考訳(メタデータ) (2022-06-16T19:50:55Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Efficient and Differentiable Shadow Computation for Inverse Problems [64.70468076488419]
微分可能幾何計算は画像に基づく逆問題に対する関心が高まっている。
微分可能な可視性とソフトシャドウ計算のための効率的かつ効率的なアプローチを提案する。
定式化は微分可能であるため, テクスチャ, 照明, 剛体ポーズ, 画像からの変形回復などの逆問題を解くために使用できる。
論文 参考訳(メタデータ) (2021-04-01T09:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。