論文の概要: InvRGB+L: Inverse Rendering of Complex Scenes with Unified Color and LiDAR Reflectance Modeling
- arxiv url: http://arxiv.org/abs/2507.17613v1
- Date: Wed, 23 Jul 2025 15:46:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.065884
- Title: InvRGB+L: Inverse Rendering of Complex Scenes with Unified Color and LiDAR Reflectance Modeling
- Title(参考訳): InvRGB+L:統一色とLiDAR反射率モデリングによる複雑なシーンの逆レンダリング
- Authors: Xiaoxue Chen, Bhargav Chandaka, Chih-Hao Lin, Ya-Qin Zhang, David Forsyth, Hao Zhao, Shenlong Wang,
- Abstract要約: InvRGB+Lは,1つのRGB+LiDARシーケンスから大きく,照らしやすく,ダイナミックなシーンを再構成する,新しい逆レンダリングモデルである。
可変照明下でのロバストな材料推定のために,LiDARの強度値と,異なるスペクトルレンジオフ器補完手段の有効照度が得られた。
- 参考スコア(独自算出の注目度): 23.50357781917193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present InvRGB+L, a novel inverse rendering model that reconstructs large, relightable, and dynamic scenes from a single RGB+LiDAR sequence. Conventional inverse graphics methods rely primarily on RGB observations and use LiDAR mainly for geometric information, often resulting in suboptimal material estimates due to visible light interference. We find that LiDAR's intensity values-captured with active illumination in a different spectral range-offer complementary cues for robust material estimation under variable lighting. Inspired by this, InvRGB+L leverages LiDAR intensity cues to overcome challenges inherent in RGB-centric inverse graphics through two key innovations: (1) a novel physics-based LiDAR shading model and (2) RGB-LiDAR material consistency losses. The model produces novel-view RGB and LiDAR renderings of urban and indoor scenes and supports relighting, night simulations, and dynamic object insertions, achieving results that surpass current state-of-the-art methods in both scene-level urban inverse rendering and LiDAR simulation.
- Abstract(参考訳): InvRGB+Lは,1つのRGB+LiDARシーケンスから大きく,照らしやすく,ダイナミックなシーンを再構成する,新しい逆レンダリングモデルである。
従来の逆画像法は主にRGB観測に依存しており、主に幾何学的情報にLiDARを用いており、しばしば可視光干渉による準最適物質推定をもたらす。
可変照明下でのロバストな材料推定のために,LiDARの強度値と,異なるスペクトルレンジオフ器補完手段の有効照度が得られた。
これに触発されたInvRGB+Lは、(1)物理ベースの新しいLiDARシェーディングモデルと(2)RGB-LiDAR素材の整合性損失という2つの重要な革新を通じて、RGB中心の逆グラフに固有の課題を克服するためにLiDAR強度キューを活用する。
このモデルは、都市・屋内シーンの新規なRGBおよびLiDARレンダリングを生成し、ライティング、夜間シミュレーション、動的オブジェクト挿入をサポートし、シーンレベルの都市逆レンダリングとLiDARシミュレーションの両方において現在の最先端手法を超える結果を得る。
関連論文リスト
- Generalizable and Relightable Gaussian Splatting for Human Novel View Synthesis [49.67420486373202]
GRGSは、多彩な照明条件下での高忠実なヒューマン・ノベル・ビュー・シンセサイザーのための一般的な3Dガウスのフレームワークである。
我々は, 精密深度および表面の正常度を予測するために, 合成依存データに基づいて学習した照明対応幾何微細化(LGR)モジュールを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:47Z) - RGS-DR: Reflective Gaussian Surfels with Deferred Rendering for Shiny Objects [40.7625935521925]
RGS-DRは光沢・反射性オブジェクトを再構成・描画するための新しい逆レンダリング手法である。
フレキシブルなリライトとシーン編集をサポートする。
論文 参考訳(メタデータ) (2025-04-25T16:23:50Z) - LiDAR-RT: Gaussian-based Ray Tracing for Dynamic LiDAR Re-simulation [31.79143254487969]
LiDAR-RTは、リアルタイムで物理的に正確なLiDARの再シミュレーションをサポートする新しいフレームワークである。
私たちの主な貢献は、効率的で効果的なレンダリングパイプラインの開発です。
我々のフレームワークは、フレキシブルなシーン編集操作と様々なセンサー構成でリアルなレンダリングをサポートしています。
論文 参考訳(メタデータ) (2024-12-19T18:58:36Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - BiGS: Bidirectional Gaussian Primitives for Relightable 3D Gaussian Splatting [10.918133974256913]
本稿では、画像に基づく新規ビュー合成技術である双方向ガウスプリミティブについて述べる。
提案手法はガウススプラッティングフレームワークに光の内在分解を取り入れ,3次元物体のリアルタイムリライティングを可能にする。
論文 参考訳(メタデータ) (2024-08-23T21:04:40Z) - NieR: Normal-Based Lighting Scene Rendering [17.421326290704844]
NieR(Normal-based Lighting Scene Rendering)は、様々な材料表面における光反射のニュアンスを考慮した新しいフレームワークである。
本稿では,光の反射特性を捉えたLD(Light Decomposition)モジュールについて述べる。
また、スパースガウス表現の限界を克服するためにHNGD (Hierarchical Normal Gradient Densification) モジュールを提案する。
論文 参考訳(メタデータ) (2024-05-21T14:24:43Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - NeRF-DS: Neural Radiance Fields for Dynamic Specular Objects [63.04781030984006]
ダイナミック・ニューラル・ラジアンス・フィールド(英語版)(NeRF)は、動的シーンの単眼RGBビデオからフォトリアリスティック・ノベル・ビュー・イメージをレンダリングできる強力なアルゴリズムである。
観測空間の表面位置と配向に条件付される神経放射場関数を再構成することにより,その限界に対処する。
本研究では,現実的な環境下での異なる移動スペクトルオブジェクトの自己合成データセットを用いて,新しいビュー合成品質に基づくモデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-25T11:03:53Z) - PhySG: Inverse Rendering with Spherical Gaussians for Physics-based
Material Editing and Relighting [60.75436852495868]
本稿では、RGB入力画像からジオメトリ、マテリアル、イルミネーションをゼロから再構築する逆レンダリングパイプラインPhySGを紹介します。
我々は合成データと実データの両方を用いて,新しい視点のレンダリングを可能にするだけでなく,物質や照明の物理ベースの外観編集を可能にすることを実証した。
論文 参考訳(メタデータ) (2021-04-01T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。