論文の概要: DeepAAT: Deep Automated Aerial Triangulation for Fast UAV-based Mapping
- arxiv url: http://arxiv.org/abs/2402.01134v1
- Date: Fri, 2 Feb 2024 04:17:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 17:05:47.922124
- Title: DeepAAT: Deep Automated Aerial Triangulation for Fast UAV-based Mapping
- Title(参考訳): DeepAAT: 高速UAVマッピングのための深部自動空中三角測量
- Authors: Zequan Chen, Jianping Li, Qusheng Li, Bisheng Yang, Zhen Dong
- Abstract要約: 本稿では,UAV画像のAATに特化したディープラーニングネットワークであるDeepAATを紹介する。
処理速度は、インクリメンタルなAATメソッドを数百倍、グローバルなAATメソッドを数倍上回る。
その結果、DeepAATは従来のAAT法よりも大幅に改善されていることがわかった。
- 参考スコア(独自算出の注目度): 9.178736055443053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated Aerial Triangulation (AAT), aiming to restore image pose and
reconstruct sparse points simultaneously, plays a pivotal role in earth
observation. With its rich research heritage spanning several decades in
photogrammetry, AAT has evolved into a fundamental process widely applied in
large-scale Unmanned Aerial Vehicle (UAV) based mapping. Despite its
advancements, classic AAT methods still face challenges like low efficiency and
limited robustness. This paper introduces DeepAAT, a deep learning network
designed specifically for AAT of UAV imagery. DeepAAT considers both spatial
and spectral characteristics of imagery, enhancing its capability to resolve
erroneous matching pairs and accurately predict image poses. DeepAAT marks a
significant leap in AAT's efficiency, ensuring thorough scene coverage and
precision. Its processing speed outpaces incremental AAT methods by hundreds of
times and global AAT methods by tens of times while maintaining a comparable
level of reconstruction accuracy. Additionally, DeepAAT's scene clustering and
merging strategy facilitate rapid localization and pose determination for
large-scale UAV images, even under constrained computing resources. The
experimental results demonstrate DeepAAT's substantial improvements over
conventional AAT methods, highlighting its potential in the efficiency and
accuracy of UAV-based 3D reconstruction tasks. To benefit the photogrammetry
society, the code of DeepAAT will be released at:
https://github.com/WHU-USI3DV/DeepAAT.
- Abstract(参考訳): 画像のポーズを復元し、スパースポイントを同時に再構築することを目的とした自動空中三角測量(AAT)は、地球観測において重要な役割を果たす。
数十年にわたる光度測定の豊富な研究遺産により、AATは大規模無人航空機(UAV)のマッピングに広く応用された基本的なプロセスへと発展してきた。
その進歩にもかかわらず、古典的なAAT手法は、低効率と限られた堅牢性といった課題に直面している。
本稿では,UAV画像のAATに特化したディープラーニングネットワークであるDeepAATを紹介する。
DeepAATは画像の空間的特徴とスペクトル的特徴の両方を考慮し、誤マッチングペアの解決能力を高め、画像のポーズを正確に予測する。
DeepAATはAATの効率を大幅に向上させ、徹底的なシーンカバレッジと精度を確保している。
その処理速度は、インクリメンタルAATメソッドを数百倍上回り、グローバルAATメソッドを数倍上回り、再現精度は同等である。
さらに、DeepAATのシーンクラスタリングとマージ戦略は、制約されたコンピューティングリソースの下でも、迅速なローカライズと大規模なUAV画像のポーズ決定を促進する。
実験結果は,従来のAAT法よりも大幅に改善され,UAVベースの3D再構成作業の効率性と精度が向上したことを示している。
フォトグラム化社会の利益を得るために、DeepAATのコードはhttps://github.com/WHU-USI3DV/DeepAATで公開される。
関連論文リスト
- Angle of Arrival Estimation with Transformer: A Sparse and Gridless Method with Zero-Shot Capability [3.110068567404913]
本研究では,高速グリッドレスAOA推定のためのAAETR (Angle of Arrival Estimation with TRansformer)を提案する。
様々な信号対雑音比(SNR)とマルチターゲットシナリオの総合的な評価は、AAETRの超分解能AOAアルゴリズムよりも優れた性能を示している。
論文 参考訳(メタデータ) (2024-08-18T05:24:18Z) - Hardware Acceleration for Real-Time Wildfire Detection Onboard Drone
Networks [6.313148708539912]
遠隔地や森林地帯での山火事の検出は 破壊と生態系の保全を 最小化するのに不可欠です
ドローンは、高度な撮像技術を備えた、リモートで困難な地形へのアジャイルアクセスを提供する。
限られた計算とバッテリリソースは、画像分類モデルの実装と効率的な実装に困難をもたらす。
本稿では,リアルタイム画像分類と火災分断モデルの構築を目的とする。
論文 参考訳(メタデータ) (2024-01-16T04:16:46Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - Deep Learning-Based UAV Aerial Triangulation without Image Control
Points [6.335630432207172]
POS がサポートする UAV 画像自由制御の大規模マッピングを実現するには,多くの技術的問題がある。
ディープラーニングは多くの面で、従来の手作りの機能のパフォーマンスを上回っています。
本稿では,ディープラーニング画像の特徴に基づく新しいドローン画像登録手法を提案する。
論文 参考訳(メタデータ) (2023-01-07T15:01:38Z) - Learning Efficient Representations for Enhanced Object Detection on
Large-scene SAR Images [16.602738933183865]
SAR(Synthetic Aperture Radar)画像のターゲットの検出と認識は難しい問題である。
近年開発されたディープラーニングアルゴリズムは,SAR画像の固有の特徴を自動的に学習することができる。
本稿では,効率的かつ堅牢なディープラーニングに基づくターゲット検出手法を提案する。
論文 参考訳(メタデータ) (2022-01-22T03:25:24Z) - FaSS-MVS -- Fast Multi-View Stereo with Surface-Aware Semi-Global
Matching from UAV-borne Monocular Imagery [0.45119235878273]
FaSS-MVSは表面認識型セミ・グロバルマッチングを用いた高速マルチビューステレオのアプローチである。
FaSS-MVSが推定したデータは、オンラインの3Dマッピングを容易にする。
論文 参考訳(メタデータ) (2021-12-01T20:43:33Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Trajectory Design for UAV-Based Internet-of-Things Data Collection: A
Deep Reinforcement Learning Approach [93.67588414950656]
本稿では,無人航空機(UAV)による3D環境におけるIoT(Internet-of-Things)システムについて検討する。
本稿では,TD3-TDCTMアルゴリズムの完成時間最小化のためのトラジェクトリ設計を提案する。
シミュレーションの結果,従来の3つの非学習ベースライン法よりもTD3-TDCTMアルゴリズムの方が優れていることが示された。
論文 参考訳(メタデータ) (2021-07-23T03:33:29Z) - Progressive Depth Learning for Single Image Dehazing [56.71963910162241]
既存の脱湿法は、しばしば深度を無視し、より重いヘイズが視界を乱す遠くの地域で失敗する。
画像深度と伝送マップを反復的に推定するディープエンドツーエンドモデルを提案する。
私たちのアプローチは、画像深度と伝送マップの内部関係を明示的にモデリングすることから利益を得ます。
論文 参考訳(メタデータ) (2021-02-21T05:24:18Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。