論文の概要: DSR: Towards Drone Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2208.12327v1
- Date: Thu, 25 Aug 2022 19:58:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:02:09.057382
- Title: DSR: Towards Drone Image Super-Resolution
- Title(参考訳): ドローンの超解像を目指すDSR
- Authors: Xiaoyu Lin, Baran Ozaydin, Vidit Vidit, Majed El Helou and Sabine
S\"usstrunk
- Abstract要約: 我々は,低解像度,高解像度,高高度で撮影できる新しいドローン画像データセットを提案する。
我々の結果は、最先端の最先端ネットワークが、この異なる領域におけるパフォーマンスの大幅な低下を目撃していることを示している。
さらに、簡単な微調整と高度認識をネットワークアーキテクチャに組み込むことにより、再構築性能が向上することを示す。
- 参考スコア(独自算出の注目度): 10.679618027862846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite achieving remarkable progress in recent years, single-image
super-resolution methods are developed with several limitations. Specifically,
they are trained on fixed content domains with certain degradations (whether
synthetic or real). The priors they learn are prone to overfitting the training
configuration. Therefore, the generalization to novel domains such as drone top
view data, and across altitudes, is currently unknown. Nonetheless, pairing
drones with proper image super-resolution is of great value. It would enable
drones to fly higher covering larger fields of view, while maintaining a high
image quality.
To answer these questions and pave the way towards drone image
super-resolution, we explore this application with particular focus on the
single-image case. We propose a novel drone image dataset, with scenes captured
at low and high resolutions, and across a span of altitudes. Our results show
that off-the-shelf state-of-the-art networks witness a significant drop in
performance on this different domain. We additionally show that simple
fine-tuning, and incorporating altitude awareness into the network's
architecture, both improve the reconstruction performance.
- Abstract(参考訳): 近年の著しい進歩にもかかわらず、単一画像による超解像法がいくつかの制限を伴って開発されている。
具体的には、特定の分解(合成または実)を伴う固定されたコンテンツドメインで訓練される。
彼らが学んだ優先順位は、トレーニング構成を過大にしがちである。
そのため、ドローントップビューデータや高度を越えた新しいドメインへの一般化は、現在不明である。
それでも、適切な画像解像度でドローンをペアリングすることは大きな価値がある。
これにより、高画質を維持しながら、より広い視野を飛行することができる。
これらの質問に答えて、ドローン画像のスーパーレゾリューションへの道を開くために、このアプリケーションについて、特にシングルイメージケースに焦点を当てて検討する。
我々は,低解像度と高画質で撮影されたシーンを,高度の広い範囲で撮影する,新しいドローン画像データセットを提案する。
その結果,最先端のネットワークでは,この異なるドメインのパフォーマンスが大幅に低下していることが判明した。
さらに,単純な微調整とネットワークのアーキテクチャへの高度認識の導入により,復元性能が向上することを示す。
関連論文リスト
- Scalable Indoor Novel-View Synthesis using Drone-Captured 360 Imagery with 3D Gaussian Splatting [3.020267522817212]
本稿では,ドローンによる360度映像からの室内ノベルビュー合成のための,効率的でスケーラブルなパイプラインを提案する。
360度カメラは幅広い視点を捉え、単純なドローン軌道下での総合的なシーンキャプチャを可能にする。
以上の結果より,PSNRとSSIMの再現性は向上し,従来のアプローチと比較して時間も改善した。
論文 参考訳(メタデータ) (2024-10-15T05:08:47Z) - AG-NeRF: Attention-guided Neural Radiance Fields for Multi-height Large-scale Outdoor Scene Rendering [9.365775353436177]
既存のニューラルラジアンス場(NeRF)をベースとした大規模屋外シーンのための新しいビュー合成法は主に1つの高度上に構築されている。
我々は、AG-NeRFと呼ばれるエンドツーエンドのフレームワークを提案し、様々なシーンの高度に基づいて自由視点画像を合成することにより、良好な再構築を構築するためのトレーニングコストを削減しようとしている。
論文 参考訳(メタデータ) (2024-04-18T04:54:28Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - VDD: Varied Drone Dataset for Semantic Segmentation [9.581655974280217]
7つのクラスにまたがる400の高解像度画像の大規模なラベル付きコレクションをリリースする。
このデータセットは、様々なカメラアングルから撮影され、様々な照明条件の下で都市、工業、農村、自然のエリアで様々なシーンを特徴としている。
私たちは、ドローンデータセットをベースラインとして7つの最先端モデルをトレーニングします。
論文 参考訳(メタデータ) (2023-05-23T02:16:14Z) - Progressively Optimized Local Radiance Fields for Robust View Synthesis [76.55036080270347]
本稿では,1つのカジュアルな映像から大規模シーンのラディアンス場を再構成するアルゴリズムを提案する。
未知のポーズを扱うために、カメラのポーズと放射場を漸進的に推定する。
大規模な非有界シーンを扱うために、時間窓内にフレームで訓練された新しい局所放射場を動的に割り当てる。
論文 参考訳(メタデータ) (2023-03-24T04:03:55Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Towards Robust Drone Vision in the Wild [1.14219428942199]
本稿では,ドローンビジョンのための画像超解像データセットを提案する。
異なる高度でデータを収集し、画像ペアを整列させる前処理手順を提案する。
異なる高度で頑健な画像超解像ネットワークを構築するための2つの手法が提案されている。
論文 参考訳(メタデータ) (2022-08-21T18:19:19Z) - SUES-200: A Multi-height Multi-scene Cross-view Image Benchmark Across
Drone and Satellite [0.0]
クロスビュー画像マッチングの目的は、同じターゲットシーンの異なるプラットフォームから取得した画像をマッチングすることである。
SUES-200は、飛行高度の異なるドローンの空中撮影によって生じる違いを考察した最初のデータセットである。
論文 参考訳(メタデータ) (2022-04-22T13:49:52Z) - Aliasing is your Ally: End-to-End Super-Resolution from Raw Image Bursts [70.80220990106467]
本発表では,空間と時間に若干異なる視点から撮影された複数の低解像度スナップショットから高分解能画像を再構成する問題に対処する。
この問題を解決するための主な課題は、(i)入力画像とサブピクセル精度の整合性、(ii)ネイティブカメラデータに対する最大限の忠実性のための生(ノイズ)画像の扱い、(iii)タスクに適した画像事前(正規化器)を設計・学習することである。
論文 参考訳(メタデータ) (2021-04-13T13:39:43Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。