論文の概要: Towards Robust Drone Vision in the Wild
- arxiv url: http://arxiv.org/abs/2208.12655v1
- Date: Sun, 21 Aug 2022 18:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-04 02:09:48.461660
- Title: Towards Robust Drone Vision in the Wild
- Title(参考訳): 野生のロバストなドローンビジョンを目指して
- Authors: Xiaoyu Lin
- Abstract要約: 本稿では,ドローンビジョンのための画像超解像データセットを提案する。
異なる高度でデータを収集し、画像ペアを整列させる前処理手順を提案する。
異なる高度で頑健な画像超解像ネットワークを構築するための2つの手法が提案されている。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past few years have witnessed the burst of drone-based applications where
computer vision plays an essential role. However, most public drone-based
vision datasets focus on detection and tracking. On the other hand, the
performance of most existing image super-resolution methods is sensitive to the
dataset, specifically, the degradation model between high-resolution and
low-resolution images. In this thesis, we propose the first image
super-resolution dataset for drone vision. Image pairs are captured by two
cameras on the drone with different focal lengths. We collect data at different
altitudes and then propose pre-processing steps to align image pairs. Extensive
empirical studies show domain gaps exist among images captured at different
altitudes. Meanwhile, the performance of pretrained image super-resolution
networks also suffers a drop on our dataset and varies among altitudes.
Finally, we propose two methods to build a robust image super-resolution
network at different altitudes. The first feeds altitude information into the
network through altitude-aware layers. The second uses one-shot learning to
quickly adapt the super-resolution model to unknown altitudes. Our results
reveal that the proposed methods can efficiently improve the performance of
super-resolution networks at varying altitudes.
- Abstract(参考訳): ここ数年、コンピュータービジョンが重要な役割を果たすドローンベースのアプリケーションが爆発的に増えている。
しかし、ほとんどのパブリックドローンベースのビジョンデータセットは、検出と追跡に焦点を当てている。
一方,高分解能画像と低分解能画像の分解モデルでは,既存の画像の高分解能手法のほとんどが,データセットに敏感である。
本稿では,ドローンビジョンのための画像超解像データセットを提案する。
画像ペアは、焦点距離の異なる2台のカメラで撮影される。
異なる高度でデータを収集し、画像ペアを整列させる前処理手順を提案する。
広範囲にわたる実証研究は、異なる高度で撮影された画像の間にドメインギャップが存在することを示している。
一方、事前訓練された画像超解像ネットワークの性能もデータセットに低下しており、高度によって異なる。
最後に,高度の異なるロバストな画像超解像ネットワークを構築するための2つの手法を提案する。
1つ目は高度認識層を通じて高度情報をネットワークに供給する。
2つめは、ワンショット学習を使用して、超解像モデルを未知の高度に素早く適応させる。
その結果,提案手法は高度の異なる超解像ネットワークの性能を効率的に向上できることがわかった。
関連論文リスト
- Aerial Lifting: Neural Urban Semantic and Building Instance Lifting from Aerial Imagery [51.73680703579997]
航空画像から都市規模のセマンティックスとビルレベルのインスタンスセグメンテーションのためのニューラルラジアンスフィールド法を提案する。
都市空撮画像の物体は、建物、車、道路など、相当な大きさのバリエーションを示している。
我々は,様々な大きさのオブジェクトのセグメンテーションを強化する,スケール適応型セマンティックラベル融合戦略を導入する。
次に、2次元のインスタンスラベルにおける多視点不整合問題を緩和するために、新しいクロスビューインスタンスラベルグループ化戦略を導入する。
論文 参考訳(メタデータ) (2024-03-18T14:15:39Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Uncertainty Aware Multitask Pyramid Vision Transformer For UAV-Based
Object Re-Identification [38.19907319079833]
UAVベースのオブジェクトReIDのバックボーンとして、畳み込みのない新しいマルチスケールアーキテクチャであるPraamid Vision Transformer(PVT)を用いるマルチタスク学習手法を提案する。
クラス内変動の不確実性モデリングにより、不確実性認識オブジェクトIDとカメラID情報の両方を用いて、提案手法を協調的に最適化することができる。
論文 参考訳(メタデータ) (2022-09-19T00:27:07Z) - DSR: Towards Drone Image Super-Resolution [10.679618027862846]
我々は,低解像度,高解像度,高高度で撮影できる新しいドローン画像データセットを提案する。
我々の結果は、最先端の最先端ネットワークが、この異なる領域におけるパフォーマンスの大幅な低下を目撃していることを示している。
さらに、簡単な微調整と高度認識をネットワークアーキテクチャに組み込むことにより、再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-25T19:58:54Z) - SUES-200: A Multi-height Multi-scene Cross-view Image Benchmark Across
Drone and Satellite [0.0]
クロスビュー画像マッチングの目的は、同じターゲットシーンの異なるプラットフォームから取得した画像をマッチングすることである。
SUES-200は、飛行高度の異なるドローンの空中撮影によって生じる違いを考察した最初のデータセットである。
論文 参考訳(メタデータ) (2022-04-22T13:49:52Z) - Small or Far Away? Exploiting Deep Super-Resolution and Altitude Data
for Aerial Animal Surveillance [3.8015092217142223]
本研究では,全体的注目ネットワークに基づく超解像手法と,カスタム構築された高度データ利用ネットワークにより,実環境における検出の有効性が向上することを示す。
SAVMAP と AED の2つの大型航空捕獲動物データセットを用いて,本システムの評価を行った。
論文 参考訳(メタデータ) (2021-11-12T17:30:55Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z) - SyNet: An Ensemble Network for Object Detection in UAV Images [13.198689566654107]
本稿では,マルチステージ方式とシングルステージ方式を組み合わせたアンサンブルネットワークであるSyNetを提案する。
ビルディングブロックとして、センシング戦略とともに、プリトレーニング特徴抽出器を備えたセンタネットおよびカスケードr−cnnを利用する。
提案手法により得られた技術成果を2つの異なるデータセットで報告する。
論文 参考訳(メタデータ) (2020-12-23T21:38:32Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。