論文の概要: Diachronic Stereo Matching for Multi-Date Satellite Imagery
- arxiv url: http://arxiv.org/abs/2601.22808v1
- Date: Fri, 30 Jan 2026 10:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.387612
- Title: Diachronic Stereo Matching for Multi-Date Satellite Imagery
- Title(参考訳): 多次元衛星画像のためのダイアクロニックステレオマッチング
- Authors: Elías Masquil, Luca Savant Aira, Roger Marí, Thibaud Ehret, Pablo Musé, Gabriele Facciolo,
- Abstract要約: 本研究は,衛星画像に対する最初のダイアクロニックステレオマッチング法であり,時間的に離れたペアからの信頼性の高い3次元再構成を可能にする。
2つの進歩により、(1)単分子深度を用いた最先端のディープステレオネットワークを微調整し、(2)多種多様なダイアクロニック画像ペアを含むように特別にキュレートされたデータセットに公開する。
本手法は, 対のダイアクロニックな性質に拘わらず正確な形状を復元し, 外観変化が強く, 既存のゼロショット法が失敗する原因となる。
- 参考スコア(独自算出の注目度): 21.19576412923101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in image-based satellite 3D reconstruction have progressed along two complementary directions. On one hand, multi-date approaches using NeRF or Gaussian-splatting jointly model appearance and geometry across many acquisitions, achieving accurate reconstructions on opportunistic imagery with numerous observations. On the other hand, classical stereoscopic reconstruction pipelines deliver robust and scalable results for simultaneous or quasi-simultaneous image pairs. However, when the two images are captured months apart, strong seasonal, illumination, and shadow changes violate standard stereoscopic assumptions, causing existing pipelines to fail. This work presents the first Diachronic Stereo Matching method for satellite imagery, enabling reliable 3D reconstruction from temporally distant pairs. Two advances make this possible: (1) fine-tuning a state-of-the-art deep stereo network that leverages monocular depth priors, and (2) exposing it to a dataset specifically curated to include a diverse set of diachronic image pairs. In particular, we start from a pretrained MonSter model, trained initially on a mix of synthetic and real datasets such as SceneFlow and KITTI, and fine-tune it on a set of stereo pairs derived from the DFC2019 remote sensing challenge. This dataset contains both synchronic and diachronic pairs under diverse seasonal and illumination conditions. Experiments on multi-date WorldView-3 imagery demonstrate that our approach consistently surpasses classical pipelines and unadapted deep stereo models on both synchronic and diachronic settings. Fine-tuning on temporally diverse images, together with monocular priors, proves essential for enabling 3D reconstruction from previously incompatible acquisition dates. Left image (winter) Right image (autumn) DSM geometry Ours (1.23 m) Zero-shot (3.99 m) LiDAR GT Figure 1. Output geometry for a winter-autumn image pair from Omaha (OMA 331 test scene). Our method recovers accurate geometry despite the diachronic nature of the pair, exhibiting strong appearance changes, which cause existing zero-shot methods to fail. Missing values due to perspective shown in black. Mean altitude error in parentheses; lower is better.
- Abstract(参考訳): 画像に基づく衛星3D再構成の最近の進歩は2つの相補的な方向に沿って進んでいる。
一方、NeRFやGaussian-Splattingを併用した複数日付のアプローチは、多くの取得に対して共同で外観と形状をモデル化し、多くの観測値でオポチュニティ画像の正確な再構成を実現している。
一方、古典的な立体再構成パイプラインは、同時または準同時のイメージペアに対して、堅牢でスケーラブルな結果を提供する。
しかし、この2つの画像が数ヶ月後に撮影されると、強い季節、照明、影の変化が標準の立体視の仮定に反し、既存のパイプラインは失敗する。
本研究は,衛星画像に対する最初のダイアクロニックステレオマッチング法であり,時間的に離れたペアからの信頼性の高い3次元再構成を可能にする。
2つの進歩により、(1)単分子深度を用いた最先端のディープステレオネットワークを微調整し、(2)多種多様なダイアクロニック画像ペアを含むように特別にキュレートされたデータセットに公開する。
特に、SceneFlowやKITTIのような合成データセットと実際のデータセットの混合でトレーニングされた事前トレーニングされたMonSterモデルから始め、DFC2019リモートセンシングチャレンジから派生したステレオペアのセットで微調整します。
このデータセットは、季節や照明の異なる条件下での同期ペアとダイアクロニックペアの両方を含んでいる。
マルチ日付WorldView-3画像に対する実験により、我々のアプローチは古典的なパイプラインや、同期とダイアクロニックの両方の設定上の未適応のディープステレオモデルに一貫して勝っていることが示された。
時間的に多彩な画像の微調整と単眼の先行画像は、以前に互換性のない取得日から3D再構成を可能にするのに不可欠である。
左画像(冬) 右画像(秋) DSM ジオメトリ(1.23m) ゼロショット(3.99m) LiDAR GT図1
オマハ(OMA 331テストシーン)の冬秋画像対の出力幾何学
本手法は, 対のダイアクロニックな性質に拘わらず正確な形状を復元し, 外観変化が強く, 既存のゼロショット法が失敗する原因となる。
黒で示される視点による欠落値。
括弧における平均高度誤差; 低い方が良い。
関連論文リスト
- OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - ResDepth: A Deep Prior For 3D Reconstruction From High-resolution
Satellite Images [28.975837416508142]
ResDepthは畳み込みニューラルネットワークで、例データからそのような表現幾何学を学習する。
一連の実験において,提案手法はステレオDSMを定量的かつ定性的に一貫的に改善することがわかった。
ネットワーク重みに符号化された先行符号化は、都市デザインの意義ある幾何学的特徴を捉えていることを示す。
論文 参考訳(メタデータ) (2021-06-15T12:51:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。