論文の概要: ShadowGS: Shadow-Aware 3D Gaussian Splatting for Satellite Imagery
- arxiv url: http://arxiv.org/abs/2601.00939v1
- Date: Sun, 04 Jan 2026 06:33:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.873152
- Title: ShadowGS: Shadow-Aware 3D Gaussian Splatting for Satellite Imagery
- Title(参考訳): ShadowGS:衛星画像のための影を意識した3Dガウス撮影
- Authors: Feng Luo, Hongbo Pan, Xiang Yang, Baoyu Jiang, Fengqing Liu, Tao Huang,
- Abstract要約: 3DGSに基づく新しいフレームワークであるShadowGSを提案する。
効率的なレンダリングを維持しながら、幾何学的に一貫した影を正確にモデル化する。
RGB、パンシャーペン、スパースビューの衛星入力など、さまざまな設定で堅牢なパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 7.33738775121714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has emerged as a novel paradigm for 3D reconstruction from satellite imagery. However, in multi-temporal satellite images, prevalent shadows exhibit significant inconsistencies due to varying illumination conditions. To address this, we propose ShadowGS, a novel framework based on 3DGS. It leverages a physics-based rendering equation from remote sensing, combined with an efficient ray marching technique, to precisely model geometrically consistent shadows while maintaining efficient rendering. Additionally, it effectively disentangles different illumination components and apparent attributes in the scene. Furthermore, we introduce a shadow consistency constraint that significantly enhances the geometric accuracy of 3D reconstruction. We also incorporate a novel shadow map prior to improve performance with sparse-view inputs. Extensive experiments demonstrate that ShadowGS outperforms current state-of-the-art methods in shadow decoupling accuracy, 3D reconstruction precision, and novel view synthesis quality, with only a few minutes of training. ShadowGS exhibits robust performance across various settings, including RGB, pansharpened, and sparse-view satellite inputs.
- Abstract(参考訳): 3次元ガウス散乱(3DGS)は、衛星画像からの3次元再構成のための新しいパラダイムとして登場した。
しかし、多時間衛星画像では、様々な照明条件のため、一般的な影は大きな矛盾を示す。
そこで我々は,3DGSに基づく新しいフレームワークであるShadowGSを提案する。
物理ベースのレンダリング方程式をリモートセンシングから利用し、効率的な光線マーチング技術と組み合わせて、幾何学的に一貫した影を正確にモデル化し、効率的なレンダリングを維持する。
さらに、シーン内の異なる照明要素と明らかな属性を効果的に切り離す。
さらに,3次元再構成の幾何的精度を大幅に向上させる影の整合性制約を導入する。
また、スパースビュー入力による性能向上のために、新しいシャドウマップも組み込んだ。
大規模な実験により、ShadowGSは現在の最先端の手法よりも、シャドーデカップリング精度、3D再構成精度、新しいビュー合成品質をわずか数分のトレーニングで上回っていることが示されている。
ShadowGSは、RGB、パンシャーペン、スパースビュー衛星入力など、さまざまな設定で堅牢なパフォーマンスを示している。
関連論文リスト
- Animated 3DGS Avatars in Diverse Scenes with Consistent Lighting and Shadows [23.490603624391095]
アニメーション3Dガウススティング(3DGS)アバターが3DGSシーンと相互作用したり、他の静的シーンに挿入された動的オブジェクトと相互作用する場合に、一貫した照明と影を与える方法を提案する。
鍵となる貢献はDGSM(Deep Gaussian Shadow Map)であり、これは3DGSのボリューム表現に合わせた古典的なシャドウマッピングアルゴリズムの現代的な類似体である。
我々は、AvatarXとActorHQのアバターの環境一貫した照明をScanNet++、DL3DV、SuperSplatのシーンに合成し、挿入されたオブジェクトとのインタラクションを示す。
論文 参考訳(メタデータ) (2026-01-04T20:42:06Z) - ComGS: Efficient 3D Object-Scene Composition via Surface Octahedral Probes [46.83857963152283]
Gaussian Splatting (GS)は没入型レンダリングを可能にするが、現実的な3Dオブジェクトシーンの合成は難しいままである。
我々は,新しい3Dオブジェクトシーン合成フレームワークであるComGSを提案する。
提案手法は,28FPS程度の高画質リアルタイムレンダリングを実現し,鮮明な影で視覚的に調和し,編集に36秒しか必要としない。
論文 参考訳(メタデータ) (2025-10-09T03:10:41Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - RNG: Relightable Neural Gaussians [19.197099019727826]
硬表面とソフト境界の両方で物体を照らすことができる新しい3DGSベースのフレームワークを提案する。
また,影の精度を向上させるための深度改善ネットワークも導入した。
提案手法は,従来の手法に比べてトレーニング(1.3時間)とレンダリング(60フレーム/秒)を著しく高速化する。
論文 参考訳(メタデータ) (2024-09-29T13:32:24Z) - 2D Gaussian Splatting for Geometrically Accurate Radiance Fields [50.056790168812114]
3D Gaussian Splatting (3DGS)は近年,高画質の新規ビュー合成と高速レンダリングを実現し,放射界再構成に革命をもたらした。
多視点画像から幾何学的精度の高い放射場をモデル化・再構成するための新しいアプローチである2DGS(2D Gaussian Splatting)を提案する。
競合する外観品質、高速トレーニング速度、リアルタイムレンダリングを維持しつつ、ノイズフリーかつ詳細な幾何学的再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-26T17:21:24Z) - Controllable Shadow Generation Using Pixel Height Maps [58.59256060452418]
物理ベースのシャドウレンダリング法は3次元のジオメトリーを必要とするが、必ずしも利用できない。
深層学習に基づく影合成法は、光情報から物体の影へのマッピングを、影の幾何学を明示的にモデル化することなく学習する。
オブジェクト,グラウンド,カメラのポーズ間の相関を符号化する新しい幾何学的表現であるピクセルハイを導入する。
論文 参考訳(メタデータ) (2022-07-12T08:29:51Z) - Towards Learning Neural Representations from Shadows [11.60149896896201]
本稿では,シーンに存在する影のみから,ニューラルシーンの表現を学習する手法を提案する。
我々のフレームワークは高度に一般化可能であり、既存の3D再構成技術と協調して動作する。
論文 参考訳(メタデータ) (2022-03-29T23:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。