論文の概要: EOGS++: Earth Observation Gaussian Splatting with Internal Camera Refinement and Direct Panchromatic Rendering
- arxiv url: http://arxiv.org/abs/2511.16542v1
- Date: Thu, 20 Nov 2025 16:54:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.735537
- Title: EOGS++: Earth Observation Gaussian Splatting with Internal Camera Refinement and Direct Panchromatic Rendering
- Title(参考訳): EOGS++:内部カメラリファインメントと直接パンクロマチックレンダリングによる地球観測ガウス散乱
- Authors: Pierrick Bournez, Luca Savant Aira, Thibaud Ehret, Gabriele Facciolo,
- Abstract要約: EOGS++は、外部のプリプロセッシングを必要とせず、生の高解像度のパンクロマティックデータで動作する衛星画像に適した新しい手法である。
本モデルでは,従来のEOGSモデルと比較して建物におけるMAEエラーの平均値が1.33から1.19に改善されていることを示す。
- 参考スコア(独自算出の注目度): 20.01225890970861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, 3D Gaussian Splatting has been introduced as a compelling alternative to NeRF for Earth observation, offering com- petitive reconstruction quality with significantly reduced training times. In this work, we extend the Earth Observation Gaussian Splatting (EOGS) framework to propose EOGS++, a novel method tailored for satellite imagery that directly operates on raw high-resolution panchromatic data without requiring external preprocessing. Furthermore, leveraging optical flow techniques we embed bundle adjustment directly within the training process, avoiding reliance on external optimization tools while improving camera pose estimation. We also introduce several improvements to the original implementation, including early stopping and TSDF post-processing, all contributing to sharper reconstructions and better geometric accuracy. Experiments on the IARPA 2016 and DFC2019 datasets demonstrate that EOGS++ achieves state-of-the-art performance in terms of reconstruction quality and effi- ciency, outperforming the original EOGS method and other NeRF-based methods while maintaining the computational advantages of Gaussian Splatting. Our model demonstrates an improvement from 1.33 to 1.19 mean MAE errors on buildings compared to the original EOGS models
- Abstract(参考訳): 近年,地球観測におけるNeRFの代替として3Dガウススプラッティングが導入されており,訓練時間を大幅に短縮し,総合的な再現性を実現している。
本研究では、地球観測ガウススティング(EOGS)フレームワークを拡張して、衛星画像に適した新しい手法であるEOGS++を提案する。
さらに、光学フロー技術を活用して、バンドル調整をトレーニングプロセスに直接組み込むことにより、外部最適化ツールへの依存を回避し、カメラのポーズ推定を改善した。
また,早期停止やTSDF後処理など,当初の実装にいくつかの改良を加えて,よりシャープな再構築と幾何的精度の向上に寄与した。
IARPA 2016とDFC2019データセットの実験では、EOGS++は再構築品質と効率の面で最先端のパフォーマンスを達成し、ガウススメッティングの計算上の利点を維持しながら、元のEOGS法や他のNeRFベースの手法よりも優れていた。
従来のEOGSモデルと比較して建物における平均MAE誤差が1.33から1.19に改善されていることを示す。
関連論文リスト
- LiDAR-GS++:Improving LiDAR Gaussian Reconstruction via Diffusion Priors [51.724649822336346]
実時間および高忠実度再シミュレーションのための拡散前処理により強化された再構成手法であるLiDAR-GS++を提案する。
具体的には、粗い外挿レンダリングを条件とした制御可能なLiDAR生成モデルを導入し、余分な幾何整合性スキャンを生成する。
再構成を未適合領域にまで拡張することにより,外挿的視点に対するグローバルな幾何整合性を確保することができる。
論文 参考訳(メタデータ) (2025-11-15T17:33:12Z) - Physics-Guided Null-Space Diffusion with Sparse Masking for Corrective Sparse-View CT Reconstruction [5.479463752172751]
拡散モデルは画像処理タスクにおいて顕著な生成能力を示した。
スパース・ビューCT再構成のためのスパース・コンディション・リワイト統合分布推定誘導拡散モデル(STRIDE)を提案する。
実験結果から,PSNRでは2.58dB,SSIMでは2.37%,MSEでは0.236に改善した。
論文 参考訳(メタデータ) (2025-09-07T09:42:16Z) - CryoFastAR: Fast Cryo-EM Ab Initio Reconstruction Made Easy [58.86576215228903]
我々はCryo-EMノイズ画像から直接ポーズを予測できる最初の幾何学的基礎モデルであるCryoFastARを紹介した。
CryoFastARは、マルチビュー機能と、大規模シミュレーションされたCryo-EMデータに現実的なノイズとCTF変調を統合することで、ポーズ推定精度と一般化を向上する。
論文 参考訳(メタデータ) (2025-06-06T08:32:32Z) - RestoreVAR: Visual Autoregressive Generation for All-in-One Image Restoration [51.77917733024544]
潜時拡散モデル(LDM)はオールインワン画像復元法(AiOR)の知覚的品質を改善した。
LDMは反復的なデノゲーションプロセスによって推論が遅くなり、時間に敏感なアプリケーションでは実用的でない。
VAR(Visual Autoregressive Modeling)は、スケールスペースの自己回帰を行い、最先端の拡散変換器に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2025-05-23T15:52:26Z) - DIPLI: Deep Image Prior Lucky Imaging for Blind Astronomical Image Restoration [4.378167136812483]
この研究は、バックプロジェクション技術を用いて、シングルフレームからマルチフレームのトレーニングに移行するフレームワークであるDIPLIを提案する。
総合評価では、ラッキーイメージング、DIP、トランスフォーマーベースモデルRVRT、拡散ベースモデルDiffIR2VR-Zeroと比較する。
論文 参考訳(メタデータ) (2025-03-20T09:33:16Z) - Gaussian Splatting for Efficient Satellite Image Photogrammetry [9.965306860657472]
標準ガウススプラッティングフレームワークがリモートセンシングにどのように適応できるかを示す。
これにより、最先端のパフォーマンスを数分で達成できます。
論文 参考訳(メタデータ) (2024-12-17T16:11:14Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [5.112375652774415]
本稿では,SDFと3DGSを統合し,正確な幾何再構成とリアルタイムレンダリングを行う統合最適化フレームワークを提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。