論文の概要: Spatio-temporal-spectral-angular observation model that integrates
observations from UAV and mobile mapping vehicle for better urban mapping
- arxiv url: http://arxiv.org/abs/2109.00900v1
- Date: Tue, 24 Aug 2021 02:58:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-05 09:57:25.920175
- Title: Spatio-temporal-spectral-angular observation model that integrates
observations from UAV and mobile mapping vehicle for better urban mapping
- Title(参考訳): UAVと移動体マッピング車からの観測を統合した時空間-スペクトル-角観測モデルによる都市マッピングの改善
- Authors: Zhenfeng Shao, Gui Cheng, Deren Li, Xiao Huang, Zhipeng Lu, Jian Liu
- Abstract要約: 複雑な都市のシーンでは、単一のセンサーからの観測は観測の空白を招き、都市オブジェクトを包括的に記述することができない。
本研究では,UAVと移動体マッピング車両の観測を統合化して,地上と地上の両方からの共同観測を実現するための,ソース・スペクトル角観測モデルを提案する。
- 参考スコア(独自算出の注目度): 10.670246699899023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a complex urban scene, observation from a single sensor unavoidably leads
to voids in observations, failing to describe urban objects in a comprehensive
manner. In this paper, we propose a spatio-temporal-spectral-angular
observation model to integrate observations from UAV and mobile mapping vehicle
platform, realizing a joint, coordinated observation operation from both air
and ground. We develop a multi-source remote sensing data acquisition system to
effectively acquire multi-angle data of complex urban scenes. Multi-source data
fusion solves the missing data problem caused by occlusion and achieves
accurate, rapid, and complete collection of holographic spatial and temporal
information in complex urban scenes. We carried out an experiment on Baisha
Town, Chongqing, China and obtained multi-sensor, multi-angle data from UAV and
mobile mapping vehicle. We first extracted the point cloud from UAV and then
integrated the UAV and mobile mapping vehicle point cloud. The integrated
results combined both the characteristic of UAV and mobile mapping vehicle
point cloud, confirming the practicability of the proposed joint data
acquisition platform and the effectiveness of spatio-temporal-spectral-angular
observation model. Compared with the observation from UAV or mobile mapping
vehicle alone, the integrated system provides an effective data acquisition
solution towards comprehensive urban monitoring.
- Abstract(参考訳): 複雑な都市シーンでは、1つのセンサーからの観察は避けられないほど観察の空白をもたらし、包括的な方法で都市オブジェクトを記述できない。
本稿では,UAVおよび移動体地図車両プラットフォームからの観測を統合し,空中と地上の両方からの協調観測操作を実現するために,時空間・角度観測モデルを提案する。
複雑な都市景観のマルチ角度データを効果的に取得するマルチソースリモートセンシングデータ取得システムを開発した。
多元データ融合は、咬合による不足データ問題を解決し、複雑な都市シーンにおけるホログラフィック空間および時間情報の正確かつ迅速かつ完全な収集を実現する。
我々は,中国長慶市バイシャタウンで実験を行い,UAVと移動体地図からマルチセンサ,マルチ角データを得た。
まず、UAVからポイントクラウドを抽出し、UAVとモバイルマッピング車両のポイントクラウドを統合しました。
統合された結果は,UAVと移動体地図車両点群の特徴を組み合わせ,提案した共同データ取得プラットフォームの実践性および時空間-スペクトル-角観測モデルの有効性を確認した。
uavまたはモバイルマッピング車両単独での観測と比較すると、統合システムは総合的な都市モニタリングに向けた効果的なデータ取得ソリューションを提供する。
関連論文リスト
- UAV (Unmanned Aerial Vehicles): Diverse Applications of UAV Datasets in Segmentation, Classification, Detection, and Tracking [0.0]
無人航空機(UAV)は、さまざまな研究領域におけるデータの収集と分析のプロセスに革命をもたらした。
UAVデータセットは、衛星画像、ドローンが撮影した画像、ビデオなど、さまざまな種類のデータで構成されている。
これらのデータセットは、災害被害評価、航空監視、物体認識、追跡において重要な役割を果たす。
論文 参考訳(メタデータ) (2024-09-05T04:47:36Z) - UAV-Based Human Body Detector Selection and Fusion for Geolocated Saliency Map Generation [0.2499907423888049]
無人航空機(UAV)を用いた探索・救助など多くの応用分野において、ソフトリアルタイムの異なるクラスの物体を確実に検出・位置決めする問題は不可欠である。
本研究は、システムコンテキストの視覚に基づく検出器の選択、割り当て、実行の相補的な問題に対処する。
検出結果は,新しいセンサモデルを利用して,正と負の両方の観測を視覚ベースで検出する,有意な位置の地図を構築する手法を用いて融合される。
論文 参考訳(メタデータ) (2024-08-29T13:00:37Z) - Automatic UAV-based Airport Pavement Inspection Using Mixed Real and
Virtual Scenarios [3.0874677990361246]
本稿では,UAVが捉えた画像を用いて,舗装の苦悩を自動的に識別する視覚的アプローチを提案する。
提案手法は,画像の欠陥を分割する深層学習(DL)に基づいている。
合成および実訓練画像からなる混合データセットを使用することで、実アプリケーションシナリオでトレーニングモデルをテストする場合、より良い結果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-11T16:30:07Z) - Voila-A: Aligning Vision-Language Models with User's Gaze Attention [56.755993500556734]
視覚言語モデル(VLM)を導くために,人間の注意の代用として視線情報を導入する。
本稿では,視線アライメントのための新しいアプローチであるVoila-Aを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:34:01Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Vision-Based UAV Self-Positioning in Low-Altitude Urban Environments [20.69412701553767]
無人航空機(UAV)は安定した位置決めのために衛星システムに依存している。
このような状況下では、視覚に基づく技術が代替手段として機能し、UAVの自己配置能力を確実にする。
本稿では,UAV自己配置タスク用に設計された最初の公開データセットであるDenseUAVを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:18:55Z) - Large-scale Autonomous Flight with Real-time Semantic SLAM under Dense
Forest Canopy [48.51396198176273]
本研究では,大規模自律飛行とリアルタイムセマンティックマッピングを,挑戦的なアンダーキャノピー環境下で実現可能な統合システムを提案する。
我々は、スキャン全体で関連付けられ、木のトランクモデルと同様にロボットのポーズを制約するために使用されるLiDARデータから、木の幹と地面の平面を検出し、モデル化する。
ドリフト補償機構は、プランナー最適性とコントローラ安定性を維持しつつ、セマンティックSLAM出力を用いたドリフトをリアルタイムで最小化するように設計されている。
論文 参考訳(メタデータ) (2021-09-14T07:24:53Z) - LiveMap: Real-Time Dynamic Map in Automotive Edge Computing [14.195521569220448]
LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
論文 参考訳(メタデータ) (2020-12-16T15:00:49Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。