論文の概要: Optimized Views Photogrammetry: Precision Analysis and A Large-scale
Case Study in Qingdao
- arxiv url: http://arxiv.org/abs/2206.12216v1
- Date: Fri, 24 Jun 2022 11:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 20:50:22.841662
- Title: Optimized Views Photogrammetry: Precision Analysis and A Large-scale
Case Study in Qingdao
- Title(参考訳): 最適視光度測定:精密解析と青島における大規模ケーススタディ
- Authors: Qingquan Li, Wenshuai Yu, San Jiang
- Abstract要約: 本研究では, 大規模3次元モデリングにおいて, 最適視光度測定の原理を示し, その精度とポテンシャルを検証した。
GCPを画像配向精度解析に、TLS点雲をモデル品質解析に利用することにより、最適化されたビュー・フォトグラムメトリーが安定した画像接続網を構築することができることを示す実験結果が得られた。
- 参考スコア(独自算出の注目度): 4.520517727994592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: UAVs have become one of the widely used remote sensing platforms and played a
critical role in the construction of smart cities. However, due to the complex
environment in urban scenes, secure and accurate data acquisition brings great
challenges to 3D modeling and scene updating. Optimal trajectory planning of
UAVs and accurate data collection of onboard cameras are non-trivial issues in
urban modeling. This study presents the principle of optimized views
photogrammetry and verifies its precision and potential in large-scale 3D
modeling. Different from oblique photogrammetry, optimized views photogrammetry
uses rough models to generate and optimize UAV trajectories, which is achieved
through the consideration of model point reconstructability and view point
redundancy. Based on the principle of optimized views photogrammetry, this
study first conducts a precision analysis of 3D models by using UAV images of
optimized views photogrammetry and then executes a large-scale case study in
the urban region of Qingdao city, China, to verify its engineering potential.
By using GCPs for image orientation precision analysis and TLS (terrestrial
laser scanning) point clouds for model quality analysis, experimental results
show that optimized views photogrammetry could construct stable image
connection networks and could achieve comparable image orientation accuracy.
Benefiting from the accurate image acquisition strategy, the quality of mesh
models significantly improves, especially for urban areas with serious
occlusions, in which 3 to 5 times of higher accuracy has been achieved.
Besides, the case study in Qingdao city verifies that optimized views
photogrammetry can be a reliable and powerful solution for the large-scale 3D
modeling in complex urban scenes.
- Abstract(参考訳): UAVは、広く使われているリモートセンシングプラットフォームの一つとなり、スマートシティの構築において重要な役割を担っている。
しかし、都市部の複雑な環境のため、安全で正確なデータ取得は、3dモデリングとシーン更新に大きな課題をもたらす。
uavの最適軌道計画と搭載カメラの正確なデータ収集は、都市モデルにおける非自明な問題である。
本研究では,最適化されたビューフォトグラメトリーの原理を示し,その精度とポテンシャルを大規模3次元モデリングで検証する。
斜め光度計と異なり、最適化されたビュー光度計は粗いモデルを用いてUAV軌道を生成・最適化し、モデル点再構成性と視点冗長性を考慮して達成する。
最適化ビューフォトグラメトリーの原理に基づき,まず,最適化ビューフォトグラメトリーのuav画像を用いて3次元モデルの精度解析を行い,その後,中国青田市における大規模ケーススタディを実施し,その工学的可能性を検証した。
GCPを画像配向精度解析に利用し、TLS点雲をモデル品質解析に利用することにより、最適化されたビュー・フォトグラムメトリーが安定した画像接続ネットワークを構築し、画像配向精度を同等にすることができることを示した。
正確な画像取得戦略の恩恵を受け、メッシュモデルの品質は大幅に向上し、特に深刻な咬合のある都市部では、3倍から5倍の精度が達成されている。
さらに、青島市のケーススタディでは、複雑な都市のシーンにおける大規模3Dモデリングの信頼性と強力なソリューションとして、最適化されたビュー・フォトグラムが有効であることを示した。
関連論文リスト
- iComMa: Inverting 3D Gaussians Splatting for Camera Pose Estimation via
Comparing and Matching [15.47627732847216]
コンピュータビジョンにおける6次元ポーズ推定問題に対処するため,iComMaという手法を提案する。
ポーズ推定を3次元ガウススティング(3DGS)の逆転問題としてモデル化する。
このフレームワークは、レンダリング・アンド・コンパレートとマッチングベースのアプローチの特徴的な特徴と固有の理論的根拠を体系的に取り入れている。
論文 参考訳(メタデータ) (2023-12-14T15:31:33Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - 3D Reconstruction of Spherical Images based on Incremental Structure
from Motion [2.6432771146480283]
本研究では, 球面対応を用いた相対配向アルゴリズム, シーンと球面間の3次元対応を用いた絶対配向, BA最適化のためのコスト関数について検討した。
上記のアルゴリズムを用いて,球面画像に対して段階的SfM(Structure from Motion)ワークフローを提案する。
論文 参考訳(メタデータ) (2023-06-22T09:49:28Z) - PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR
Point Clouds [29.15589024703907]
本稿では,計算資源の割り当ての観点から,局所的な点集合体を再考する。
最も単純な柱ベースのモデルは、精度とレイテンシの両方を考慮して驚くほどよく機能することがわかった。
本研究は,3次元物体検出の高性能化のために,詳細な幾何学的モデリングが不可欠である,という一般的な直観に挑戦する。
論文 参考訳(メタデータ) (2023-05-08T17:59:14Z) - Neural Lens Modeling [50.57409162437732]
NeuroLens(ニューロレンス)は、点投影と光線鋳造に使用できる歪みと磁化のための神経レンズモデルである。
古典的なキャリブレーションターゲットを使用してプリキャプチャのキャリブレーションを行うことができ、後に3D再構成の際にキャリブレーションやリファインメントを行うために使用できる。
このモデルは、多くのレンズタイプにまたがって一般化されており、既存の3D再構成とレンダリングシステムとの統合は容易である。
論文 参考訳(メタデータ) (2023-04-10T20:09:17Z) - P2P: Tuning Pre-trained Image Models for Point Cloud Analysis with
Point-to-Pixel Prompting [94.11915008006483]
本稿では,ポイントクラウド解析のための新しいポイント・ツー・Pixelを提案する。
ScanObjectNNの最も難しい設定では,89.3%の精度が得られる。
また,本フレームワークは,ModelNet分類とShapeNet Part Codeで非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2022-08-04T17:59:03Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - Cumulative Assessment for Urban 3D Modeling [0.8155575318208631]
衛星画像からの都市3Dモデリングには、都市の特徴を記述するための正確なセマンティックセグメンテーション、表面高さの3D再構成のための複数のビューステレオ、正確な表面傾斜を持つコンパクトなモデルを作成するための3Dモデルフィッティングが必要である。
本稿では,各コンポーネントの誤りコントリビューションを簡潔にキャプチャする累積評価指標を提案する。
論文 参考訳(メタデータ) (2021-07-09T18:29:50Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。