論文の概要: Aerial Path Planning for Urban Geometry and Texture Co-Capture
- arxiv url: http://arxiv.org/abs/2509.22227v1
- Date: Fri, 26 Sep 2025 11:38:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.397678
- Title: Aerial Path Planning for Urban Geometry and Texture Co-Capture
- Title(参考訳): 都市形状とテクスチュアコキャプチャーのための空路計画
- Authors: Weidan Xiong, Bochuan Zeng, Ziyu Hu, Jianwei Guo, Ke Xie, Hui Huang,
- Abstract要約: 本稿では,事前知識が限定された都市形状とテクスチャ共捕獲問題を紹介する。
唯一の入力は、ターゲットエリアの2次元建物の輪郭図と、建物の上の安全な飛行高度である。
構造幾何学と高忠実度テクスチャの両方を再構成するための画像の共撮を目的とした革新的な空中経路計画フレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.86378791315212
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in image acquisition and scene reconstruction have enabled the generation of high-quality structural urban scene geometry, given sufficient site information. However, current capture techniques often overlook the crucial importance of texture quality, resulting in noticeable visual artifacts in the textured models. In this work, we introduce the urban geometry and texture co-capture problem under limited prior knowledge before a site visit. The only inputs are a 2D building contour map of the target area and a safe flying altitude above the buildings. We propose an innovative aerial path planning framework designed to co-capture images for reconstructing both structured geometry and high-fidelity textures. To evaluate and guide view planning, we introduce a comprehensive texture quality assessment system, including two novel metrics tailored for building facades. Firstly, our method generates high-quality vertical dipping views and horizontal planar views to effectively capture both geometric and textural details. A multi-objective optimization strategy is then proposed to jointly maximize texture fidelity, improve geometric accuracy, and minimize the cost associated with aerial views. Furthermore, we present a sequential path planning algorithm that accounts for texture consistency during image capture. Extensive experiments on large-scale synthetic and real-world urban datasets demonstrate that our approach effectively produces image sets suitable for concurrent geometric and texture reconstruction, enabling the creation of realistic, textured scene proxies at low operational cost.
- Abstract(参考訳): 画像取得とシーン再構築の最近の進歩により,十分な場所情報を得た高品質な都市景観形状の創出が可能となった。
しかし、現在のキャプチャ技術は、テクスチャ品質の重要な重要性を見落とし、テクスチャモデルにおいて目立った視覚的アーティファクトをもたらすことが多い。
本研究では,サイト訪問前の事前知識が限定された都市形状とテクスチャ共捕獲問題を紹介する。
唯一の入力は、ターゲットエリアの2次元建物の輪郭図と、建物の上の安全な飛行高度である。
構造幾何学と高忠実度テクスチャの両方を再構成するための画像の共撮を目的とした革新的な空中経路計画フレームワークを提案する。
ファサード構築に適した2つの新しい指標を含む総合的なテクスチャ品質評価システムを導入する。
まず,高品質な垂直ディッピングビューと水平平面ビューを生成し,幾何学的およびテクスチャ的詳細の両方を効果的に捉える。
次に, テクスチャの忠実度を最大化し, 幾何精度を向上し, 航空ビューに関連するコストを最小化するための多目的最適化手法を提案する。
さらに,画像キャプチャ中のテクスチャの整合性を考慮した逐次経路計画アルゴリズムを提案する。
大規模な総合的・実世界の都市データセットに対する大規模な実験により、我々の手法は同時幾何学的・テクスチャ的再構成に適した画像集合を効果的に生成し、現実的なテクスチャ化されたシーンプロキシを低コストで作成できることを示した。
関連論文リスト
- Real-time Free-view Human Rendering from Sparse-view RGB Videos using Double Unprojected Textures [87.80984588545589]
スパースビューのRGB入力からのリアルタイム自由視点人体レンダリングは、センサー不足と厳しい時間予算のために難しい課題である。
本稿では,2重非投影テクスチャについて述べる。その中心部では外観合成から粗い幾何学的変形推定を行う。
論文 参考訳(メタデータ) (2024-12-17T18:57:38Z) - Horizon-GS: Unified 3D Gaussian Splatting for Large-Scale Aerial-to-Ground Scenes [55.15494682493422]
本稿では,ガウシアン・スプレイティング技術に基づく新しい手法であるHorizon-GSを導入し,航空やストリートビューの統一的な再構築とレンダリングに挑戦する。
提案手法は,これらの視点と新たなトレーニング戦略を組み合わせることによる重要な課題に対処し,視点の相違を克服し,高忠実度シーンを生成する。
論文 参考訳(メタデータ) (2024-12-02T17:42:00Z) - GausSurf: Geometry-Guided 3D Gaussian Splatting for Surface Reconstruction [79.42244344704154]
GausSurfは、テクスチャリッチな領域におけるマルチビュー一貫性と、シーンのテクスチャレスな領域における通常の事前の幾何学的ガイダンスを採用している。
本手法は,再現性や計算時間の観点から,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-11-29T03:54:54Z) - From Flat to Spatial: Comparison of 4 methods constructing 3D, 2 and 1/2D Models from 2D Plans with neural networks [0.0]
単一画像を2Dおよび1/2Dおよび3Dメッシュに変換することは、設計の可視化と効率を高めるための有望な技術である。
本稿では,「1-2-3-45」,「CRM:畳み込み再構成モデルを用いた3次元テクスチャメッシュへのシングルイメージ」,「インスタントメッシュ」,「イメージ・トゥ・メッシュ」の4つの革新的な手法について検討する。
論文 参考訳(メタデータ) (2024-07-29T13:01:20Z) - TwinTex: Geometry-aware Texture Generation for Abstracted 3D
Architectural Models [13.248386665044087]
我々はTwinTexについて紹介する。TwinTexは写真にリアルなテクスチャを生成する最初の自動テクスチャマッピングフレームワークである。
提案手法は, 高品質なテクスチャマッピング手法を超越し, より少ない労力で, 熟練した生産水準に達する。
論文 参考訳(メタデータ) (2023-09-20T12:33:53Z) - Neural 3D Scene Reconstruction from Multiple 2D Images without 3D
Supervision [41.20504333318276]
平面制約下でのスパース深度を用いてシーンを3次元の監督なしに再構成する新しいニューラル再構成法を提案する。
シーンを表すために,符号付き距離関数場,色場,確率場を導入する。
我々は、これらのフィールドを最適化し、2D画像で識別可能な光線マーキングを監督することでシーンを再構築する。
論文 参考訳(メタデータ) (2023-06-30T13:30:48Z) - Voxurf: Voxel-based Efficient and Accurate Neural Surface Reconstruction [142.61256012419562]
本稿では,ボクセルをベースとした表面再構成手法であるVoxurfを提案する。
ボクサーフは,(1)コヒーレントな粗い形状を達成し,細部を連続的に再現する2段階の訓練手順,2)色-幾何学的依存性を維持する2色ネットワーク,3)ボクセル間の情報伝達を促進する階層的幾何学的特徴などを通じて,上記の課題に対処する。
論文 参考訳(メタデータ) (2022-08-26T14:48:02Z) - Initialization and Alignment for Adversarial Texture Optimization [140.61559394862005]
テクスチャ生成の方法は、クリーンな幾何学と合理的に整合した画像データを必要とすることが多い。
テクスチャマップとアライメントプロシージャへの幾何形状のロバストマッピングを開発する。
本研究では, 合計2807フレームの11の場面でテクスチャ生成の有効性を実証し, 知覚的および鋭さの測定に関して7.8%と11.1%の相対的な改善を観察した。
論文 参考訳(メタデータ) (2022-07-28T17:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。