論文の概要: Taming the Light: Illumination-Invariant Semantic 3DGS-SLAM
- arxiv url: http://arxiv.org/abs/2511.22968v1
- Date: Fri, 28 Nov 2025 08:19:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.817262
- Title: Taming the Light: Illumination-Invariant Semantic 3DGS-SLAM
- Title(参考訳): 光のタグ付け:イルミネーション-不変セマンティック3DGS-SLAM
- Authors: Shouhe Zhang, Dayong Ren, Sensen Song, Yurong Qian, Zhenhong Jia,
- Abstract要約: 極端露出は3Dマップ再構成とセマンティックセグメンテーションの精度を劣化させる。
本稿では2つの設計を持つ新しいセマンティックSLAMフレームワークを提案する。
まず、内在性正規化モジュールは、過渡的な照明からアルベドのような内在性特性を積極的に切り離す。
第二に、DRB-Loss(Dynamic Radiance Balancing Loss)は、極端な露出でフレームを反応的に処理する。
- 参考スコア(独自算出の注目度): 17.050977825997617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extreme exposure degrades both the 3D map reconstruction and semantic segmentation accuracy, which is particularly detrimental to tightly-coupled systems. To achieve illumination invariance, we propose a novel semantic SLAM framework with two designs. First, the Intrinsic Appearance Normalization (IAN) module proactively disentangles the scene's intrinsic properties, such as albedo, from transient lighting. By learning a standardized, illumination-invariant appearance model, it assigns a stable and consistent color representation to each Gaussian primitive. Second, the Dynamic Radiance Balancing Loss (DRB-Loss) reactively handles frames with extreme exposure. It activates only when an image's exposure is poor, operating directly on the radiance field to guide targeted optimization. This prevents error accumulation from extreme lighting without compromising performance under normal conditions. The synergy between IAN's proactive invariance and DRB-Loss's reactive correction endows our system with unprecedented robustness. Evaluations on public datasets demonstrate state-of-the-art performance in camera tracking, map quality, and semantic and geometric accuracy.
- Abstract(参考訳): 極端露出は、3Dマップ再構成とセマンティックセグメンテーションの精度の両方を劣化させる。
照明の不変性を実現するために,2つの設計を持つ新しい意味的SLAMフレームワークを提案する。
まず、内在性正規化(IAN)モジュールは、過渡的な照明からアルベドなどの内在性特性を積極的に切り離す。
標準化された照明不変の外観モデルを学ぶことにより、各ガウス原始体に安定で一貫した色表現を割り当てる。
第二に、DRB-Loss(Dynamic Radiance Balancing Loss)は、極端な露出でフレームを反応的に処理する。
画像の露出が不十分な場合にのみ起動し、ターゲットの最適化を誘導するために、放射場を直接操作する。
これにより、通常の条件下での性能を損なうことなく、極端な照明による誤差の蓄積を防止する。
IANの能動的不変性とDRB-Lossの反応性補正との相乗効果は,我々のシステムに前例のない頑健性を与える。
公開データセットの評価は、カメラトラッキング、マップ品質、意味論的および幾何学的精度における最先端のパフォーマンスを示す。
関連論文リスト
- WildGHand: Learning Anti-Perturbation Gaussian Hand Avatars from Monocular In-the-Wild Videos [68.43355277637882]
本研究では,WildGHandについて紹介する。WildGHandは,自己適応型3Dガウススプラッティングを実現する最適化ベースのフレームワークである。
さらに,多彩な摂動下で撮影された単眼手指ビデオのデータセットを収集し,手指アバター再建のベンチマークを行う。
論文 参考訳(メタデータ) (2026-02-24T05:14:05Z) - UP-Fuse: Uncertainty-guided LiDAR-Camera Fusion for 3D Panoptic Segmentation [17.310791153991975]
本稿では,新しい不確実性を考慮した融合フレームワークUP-Fuseを紹介する。
生のLiDARデータはまずレンジビューに投影され、LiDARエンコーダによってエンコードされる。
カメラ機能は同時に抽出され、同じ共有空間に投影される。
論文 参考訳(メタデータ) (2026-02-22T21:34:29Z) - Unifying Color and Lightness Correction with View-Adaptive Curve Adjustment for Robust 3D Novel View Synthesis [73.27997579020233]
多様な照明条件下での堅牢なNVSのための3DGSベースのフレームワークであるLuminance-GS++を提案する。
本手法は,グローバルな視野適応光度調整と局所画素ワイド残差補正を組み合わせ,正確な色補正を行う。
論文 参考訳(メタデータ) (2026-02-20T16:20:50Z) - EAG-PT: Emission-Aware Gaussians and Path Tracing for Indoor Scene Reconstruction and Editing [63.64931392651423]
本研究では,2次元ガウス表現を統一した物理的光輸送を目的としたElectron-Aware Gaussian and Path Tracing (EAG-PT)を提案する。
本設計は,(1)再構成メッシュを回避する統一的なシーン表現と移動に適した幾何プロキシとして2次元ガウシアンを用い,(2)さらなるシーン編集のために再構成中の許容成分と非許容成分を明示的に分離し,(3)効率的なシングルバウンス最適化と高品質なマルチバウンスパストレースを用いて最終レンダリングから再構成を分離する,という3つのコアに基づいている。
論文 参考訳(メタデータ) (2026-01-30T15:16:37Z) - ROSGS: Relightable Outdoor Scenes With Gaussian Splatting [33.2992160880414]
ROSGSは,ガウシアン・スプラッティング表現を用いて,光沢のある屋外シーンを再構築するための2段階パイプラインである。
ROSGSは、屋外のシーンをリライトする際の最先端性能を実現し、より優れたリライト精度とレンダリング効率を実現する能力を強調した。
論文 参考訳(メタデータ) (2025-09-14T13:58:58Z) - EBAD-Gaussian: Event-driven Bundle Adjusted Deblur Gaussian Splatting [21.46091843175779]
イベント駆動バンドル調整デブルガウススメッティング(EBAD-Gaussian)
EBAD-Gaussianは、イベントストリームとひどくぼやけた画像から、鋭い3Dガウシアンを再構築する。
合成および実世界のデータセットの実験により、EBAD-Gaussianは高品質な3Dシーンを再構築できることが示された。
論文 参考訳(メタデータ) (2025-04-14T09:17:00Z) - D3DR: Lighting-Aware Object Insertion in Gaussian Splatting [48.80431740983095]
D3DRと呼ばれる3DGS並列化オブジェクトを3DGSシーンに挿入する手法を提案する。
我々は、現実世界のデータに基づいて訓練された拡散モデルの進歩を活用し、正しいシーンライティングを暗黙的に理解する。
提案手法を既存手法と比較することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2025-03-09T19:48:00Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - GI-GS: Global Illumination Decomposition on Gaussian Splatting for Inverse Rendering [6.820642721852439]
GI-GSは3次元ガウススティング(3DGS)と遅延シェーディングを利用する新しい逆レンダリングフレームワークである。
筆者らのフレームワークでは,まずGバッファを描画し,シーンの詳細な形状と材料特性を捉える。
Gバッファと以前のレンダリング結果により、ライトウェイトパストレースにより間接照明を計算することができる。
論文 参考訳(メタデータ) (2024-10-03T15:58:18Z) - GS-ID: Illumination Decomposition on Gaussian Splatting via Adaptive Light Aggregation and Diffusion-Guided Material Priors [5.7153963416911]
ガウススプラッティング(GS)はレンダリングの効果的な表現として登場したが、基礎となる幾何学、材料、照明はいまだに絡み合っている。
照明分解のためのエンドツーエンドフレームワークである textbfGS-ID を提案する。
照明やシーン構成などの下流アプリケーションにおけるGS-IDの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-08-16T04:38:31Z) - MetaGS: A Meta-Learned Gaussian-Phong Model for Out-of-Distribution 3D Scene Relighting [63.5925701087252]
アウト・オブ・ディストリビューション(OOD) 3Dリライティングは、目に見えない照明条件下での新しいビュー合成を必要とする。
この課題に対処するためにMetaGSを2つの視点から紹介する。
論文 参考訳(メタデータ) (2024-05-31T13:48:54Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - NeIF: Representing General Reflectance as Neural Intrinsics Fields for
Uncalibrated Photometric Stereo [70.71400320657035]
非平衡測光ステレオ(UPS)は、未知の光によってもたらされる固有の曖昧さのために困難である。
本稿では,光の手がかりと光推定との暗黙の関係を確立し,教師なしの方法でUPSを解く。
論文 参考訳(メタデータ) (2022-08-18T15:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。