論文の概要: Aerial-Ground Image Feature Matching via 3D Gaussian Splatting-based Intermediate View Rendering
- arxiv url: http://arxiv.org/abs/2509.19898v1
- Date: Wed, 24 Sep 2025 08:50:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.747298
- Title: Aerial-Ground Image Feature Matching via 3D Gaussian Splatting-based Intermediate View Rendering
- Title(参考訳): 3次元ガウス平滑型中間視点レンダリングによる空中球面画像特徴マッチング
- Authors: Jiangxue Yu, Hui Wang, San Jiang, Xing Zhang, Dejin Zhang, Qingquan Li,
- Abstract要約: 空中画像と地上画像の統合は、複雑なシーンの3Dモデリングにおいて有望な解決策である。
本研究の主な貢献は,空中画像と地上画像の特徴マッチングアルゴリズムである。
- 参考スコア(独自算出の注目度): 7.454339483033969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of aerial and ground images has been a promising solution in 3D modeling of complex scenes, which is seriously restricted by finding reliable correspondences. The primary contribution of this study is a feature matching algorithm for aerial and ground images, whose core idea is to generate intermediate views to alleviate perspective distortions caused by the extensive viewpoint changes. First, by using aerial images only, sparse models are reconstructed through an incremental SfM (Structure from Motion) engine due to their large scene coverage. Second, 3D Gaussian Splatting is then adopted for scene rendering by taking as inputs sparse points and oriented images. For accurate view rendering, a render viewpoint determination algorithm is designed by using the oriented camera poses of aerial images, which is used to generate high-quality intermediate images that can bridge the gap between aerial and ground images. Third, with the aid of intermediate images, reliable feature matching is conducted for match pairs from render-aerial and render-ground images, and final matches can be generated by transmitting correspondences through intermediate views. By using real aerial and ground datasets, the validation of the proposed solution has been verified in terms of feature matching and scene rendering and compared comprehensively with widely used methods. The experimental results demonstrate that the proposed solution can provide reliable feature matches for aerial and ground images with an obvious increase in the number of initial and refined matches, and it can provide enough matches to achieve accurate ISfM reconstruction and complete 3DGS-based scene rendering.
- Abstract(参考訳): 航空画像と地上画像の統合は複雑なシーンの3次元モデリングにおいて有望な解決策であり、信頼性の高い対応を見つけることで極めて制限されている。
本研究の主な貢献は,空中・地上画像の特徴マッチングアルゴリズムであり,その中核となる考え方は,広範囲な視点変化による視点歪みを軽減するために,中間的な視点を生成することである。
第一に、空中画像のみを使用することで、スパークスモデルは、大きなシーンカバレッジのため、インクリメンタルなSfM(Structure from Motion)エンジンによって再構成される。
次に、スパースポイントと向きの画像を入力として、3Dガウススプラッティングをシーンレンダリングに採用する。
正確なビューレンダリングのために、空中画像の配向カメラポーズを用いてレンダリング視点決定アルゴリズムを設計し、空中画像と地上画像のギャップを埋めることのできる高品質な中間画像を生成する。
第3に、中間画像の助けを借りて、レンダリング・エアリアル画像とレンダリング・グラウンド画像とのマッチングに信頼性のある特徴マッチングを行い、中間ビューを介して通信を送信することで最終一致を生成することができる。
実際の空中および地上のデータセットを用いて,特徴マッチングとシーンレンダリングの観点から提案手法の有効性を検証し,広範に使用されている手法と比較した。
実験の結果, 提案手法は, 航空画像と地上画像の信頼性の高い特徴マッチングを, 初期画像と精巧なマッチングの数が明らかに増加し, 正確なISfM再構成と3DGSによるシーンレンダリングを実現するのに十分なマッチングを提供することができた。
関連論文リスト
- AerialMegaDepth: Learning Aerial-Ground Reconstruction and View Synthesis [57.249817395828174]
本研究では,3次元都市規模のメッシュからの擬似合成レンダリングと,実地レベルでのクラウドソース画像を組み合わせたスケーラブルなフレームワークを提案する。
擬似合成データは、幅広い空中視点をシミュレートする一方、実際のクラウドソース画像は、地上レベルの画像の視覚的忠実度を改善するのに役立つ。
このハイブリッドデータセットを使用して、いくつかの最先端のアルゴリズムを微調整し、実世界のゼロショット地上作業において大幅な改善を実現する。
論文 参考訳(メタデータ) (2025-04-17T17:57:05Z) - FG$^2$: Fine-Grained Cross-View Localization by Fine-Grained Feature Matching [69.81167130510333]
本研究では, 地上画像の3次元自由度ポーズを, 周囲の空中画像から推定する, 微粒なクロスビューローカライゼーション手法を提案する。
地中画像から生成された点面と地中画像からサンプリングされた点面とを合わせ、ポーズを推定する。
従来の最先端技術と比較して,VIGORクロスエリアテストセットでは,平均局所化誤差を28%削減する。
論文 参考訳(メタデータ) (2025-03-24T14:34:20Z) - BevSplat: Resolving Height Ambiguity via Feature-Based Gaussian Primitives for Weakly-Supervised Cross-View Localization [11.50186721264038]
本稿では、弱教師付きクロスビューローカライゼーションの問題に対処する。
目的は、ノイズの多い地上の真実の注釈で衛星画像に対する地上カメラのポーズを推定することである。
特徴に基づくガウス的プリミティブを用いて高さのあいまいさを解決する新しい手法であるBevSplatを提案する。
論文 参考訳(メタデータ) (2025-02-13T08:54:04Z) - HawkI: Homography & Mutual Information Guidance for 3D-free Single Image to Aerial View [67.8213192993001]
本稿では,テキストと模範画像から空中視像を合成するためのHawkeIを提案する。
HawkIは、予め訓練されたテキストから2次元の安定拡散モデルに入力画像からの視覚的特徴をブレンドする。
推測において、HawkeIは、入力画像の意味的詳細を忠実に複製するために生成されたイメージを操るために、ユニークな相互情報ガイダンスの定式化を用いる。
論文 参考訳(メタデータ) (2023-11-27T01:41:25Z) - SliceMatch: Geometry-guided Aggregation for Cross-View Pose Estimation [7.751856268560216]
SliceMatchは、地上と空中の特徴抽出器、特徴集約器、ポーズ予測器で構成されている。
本研究では,地上および空中の特徴抽出器,特徴集約器,ポーズ予測器からなるSliceMatchを提案する。
論文 参考訳(メタデータ) (2022-11-26T20:06:20Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Evaluation of Cross-View Matching to Improve Ground Vehicle Localization
with Aerial Perception [17.349420462716886]
クロスビューマッチング(クロスビューマッチング、cross-view matching)とは、あるクエリーグラウンドビュー画像の最も近いマッチングを、航空画像のデータベースから検索する問題を指す。
本稿では,より長い軌道上での地上車両の位置決め作業に対するクロスビューマッチングの評価を行う。
論文 参考訳(メタデータ) (2020-03-13T23:59:07Z) - Leveraging Photogrammetric Mesh Models for Aerial-Ground Feature Point
Matching Toward Integrated 3D Reconstruction [19.551088857830944]
地上・地上画像の統合は, 都市環境における表面の再構築を効果的に進めるためのアプローチとして証明されている。
幾何認識による画像補正に基づく従来の研究により,この問題は緩和された。
地上画像マッチングにフォトグラムメッシュモデルを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T01:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。