論文の概要: Optimized Views Photogrammetry: Precision Analysis and A Large-scale
Case Study in Qingdao
- arxiv url: http://arxiv.org/abs/2206.12216v1
- Date: Fri, 24 Jun 2022 11:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 20:50:22.841662
- Title: Optimized Views Photogrammetry: Precision Analysis and A Large-scale
Case Study in Qingdao
- Title(参考訳): 最適視光度測定:精密解析と青島における大規模ケーススタディ
- Authors: Qingquan Li, Wenshuai Yu, San Jiang
- Abstract要約: 本研究では, 大規模3次元モデリングにおいて, 最適視光度測定の原理を示し, その精度とポテンシャルを検証した。
GCPを画像配向精度解析に、TLS点雲をモデル品質解析に利用することにより、最適化されたビュー・フォトグラムメトリーが安定した画像接続網を構築することができることを示す実験結果が得られた。
- 参考スコア(独自算出の注目度): 4.520517727994592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: UAVs have become one of the widely used remote sensing platforms and played a
critical role in the construction of smart cities. However, due to the complex
environment in urban scenes, secure and accurate data acquisition brings great
challenges to 3D modeling and scene updating. Optimal trajectory planning of
UAVs and accurate data collection of onboard cameras are non-trivial issues in
urban modeling. This study presents the principle of optimized views
photogrammetry and verifies its precision and potential in large-scale 3D
modeling. Different from oblique photogrammetry, optimized views photogrammetry
uses rough models to generate and optimize UAV trajectories, which is achieved
through the consideration of model point reconstructability and view point
redundancy. Based on the principle of optimized views photogrammetry, this
study first conducts a precision analysis of 3D models by using UAV images of
optimized views photogrammetry and then executes a large-scale case study in
the urban region of Qingdao city, China, to verify its engineering potential.
By using GCPs for image orientation precision analysis and TLS (terrestrial
laser scanning) point clouds for model quality analysis, experimental results
show that optimized views photogrammetry could construct stable image
connection networks and could achieve comparable image orientation accuracy.
Benefiting from the accurate image acquisition strategy, the quality of mesh
models significantly improves, especially for urban areas with serious
occlusions, in which 3 to 5 times of higher accuracy has been achieved.
Besides, the case study in Qingdao city verifies that optimized views
photogrammetry can be a reliable and powerful solution for the large-scale 3D
modeling in complex urban scenes.
- Abstract(参考訳): UAVは、広く使われているリモートセンシングプラットフォームの一つとなり、スマートシティの構築において重要な役割を担っている。
しかし、都市部の複雑な環境のため、安全で正確なデータ取得は、3dモデリングとシーン更新に大きな課題をもたらす。
uavの最適軌道計画と搭載カメラの正確なデータ収集は、都市モデルにおける非自明な問題である。
本研究では,最適化されたビューフォトグラメトリーの原理を示し,その精度とポテンシャルを大規模3次元モデリングで検証する。
斜め光度計と異なり、最適化されたビュー光度計は粗いモデルを用いてUAV軌道を生成・最適化し、モデル点再構成性と視点冗長性を考慮して達成する。
最適化ビューフォトグラメトリーの原理に基づき,まず,最適化ビューフォトグラメトリーのuav画像を用いて3次元モデルの精度解析を行い,その後,中国青田市における大規模ケーススタディを実施し,その工学的可能性を検証した。
GCPを画像配向精度解析に利用し、TLS点雲をモデル品質解析に利用することにより、最適化されたビュー・フォトグラムメトリーが安定した画像接続ネットワークを構築し、画像配向精度を同等にすることができることを示した。
正確な画像取得戦略の恩恵を受け、メッシュモデルの品質は大幅に向上し、特に深刻な咬合のある都市部では、3倍から5倍の精度が達成されている。
さらに、青島市のケーススタディでは、複雑な都市のシーンにおける大規模3Dモデリングの信頼性と強力なソリューションとして、最適化されたビュー・フォトグラムが有効であることを示した。
関連論文リスト
- SelfSplat: Pose-Free and 3D Prior-Free Generalizable 3D Gaussian Splatting [4.121797302827049]
ポーズフリーで3次元の事前自由な一般化可能な3次元再構成を実現するための新しい3次元ガウススプラッティングモデルであるSelfSplatを提案する。
本モデルでは,これらの課題に対して,自己教師付き深度とポーズ推定手法を効果的に統合することによって対処する。
提案手法の性能を評価するため,RealEstate10K,ACID,DL3DVなどの大規模実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2024-11-26T08:01:50Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - MoGe: Unlocking Accurate Monocular Geometry Estimation for Open-Domain Images with Optimal Training Supervision [23.12838070960566]
モノクラーオープンドメイン画像から3次元形状を復元する強力なモデルであるMoGeを提案する。
一つの画像が与えられた場合、アフィン不変表現でキャプチャされたシーンの3Dポイントマップを直接予測する。
本稿では,高品質な幾何学を学習する上で,モデルに有効性を与える新しいグローバルおよびローカルな幾何学監督手法を提案する。
論文 参考訳(メタデータ) (2024-10-24T19:29:02Z) - Bayesian Mesh Optimization for Graph Neural Networks to Enhance Engineering Performance Prediction [1.6574413179773761]
工学設計において、サロゲートモデルは計算コストのかかるシミュレーションを置き換えるために広く使われている。
本稿では3次元ディープラーニングに基づく代理モデルのためのベイズグラフニューラルネットワーク(GNN)フレームワークを提案する。
我々のフレームワークはベイズ最適化によってメッシュ要素の最適サイズを決定し、その結果、高精度なサロゲートモデルが得られる。
論文 参考訳(メタデータ) (2024-06-04T06:27:48Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Neural Lens Modeling [50.57409162437732]
NeuroLens(ニューロレンス)は、点投影と光線鋳造に使用できる歪みと磁化のための神経レンズモデルである。
古典的なキャリブレーションターゲットを使用してプリキャプチャのキャリブレーションを行うことができ、後に3D再構成の際にキャリブレーションやリファインメントを行うために使用できる。
このモデルは、多くのレンズタイプにまたがって一般化されており、既存の3D再構成とレンダリングシステムとの統合は容易である。
論文 参考訳(メタデータ) (2023-04-10T20:09:17Z) - P2P: Tuning Pre-trained Image Models for Point Cloud Analysis with
Point-to-Pixel Prompting [94.11915008006483]
本稿では,ポイントクラウド解析のための新しいポイント・ツー・Pixelを提案する。
ScanObjectNNの最も難しい設定では,89.3%の精度が得られる。
また,本フレームワークは,ModelNet分類とShapeNet Part Codeで非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2022-08-04T17:59:03Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Cumulative Assessment for Urban 3D Modeling [0.8155575318208631]
衛星画像からの都市3Dモデリングには、都市の特徴を記述するための正確なセマンティックセグメンテーション、表面高さの3D再構成のための複数のビューステレオ、正確な表面傾斜を持つコンパクトなモデルを作成するための3Dモデルフィッティングが必要である。
本稿では,各コンポーネントの誤りコントリビューションを簡潔にキャプチャする累積評価指標を提案する。
論文 参考訳(メタデータ) (2021-07-09T18:29:50Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。