論文の概要: Artificial and beneficial -- Exploiting artificial images for aerial
vehicle detection
- arxiv url: http://arxiv.org/abs/2104.03054v1
- Date: Wed, 7 Apr 2021 11:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:50:29.685965
- Title: Artificial and beneficial -- Exploiting artificial images for aerial
vehicle detection
- Title(参考訳): 航空車両検出における人工的・有益的画像の利用
- Authors: Immanuel Weber, Jens Bongartz, Ribana Roscher
- Abstract要約: 本研究では,2次元cad描画から作成した車両を人工的あるいは実際の背景に重ね合わせてトップダウン画像を生成する生成手法を提案する。
修正されたRetinaNetオブジェクト検出ネットワークによる実験では、これらの画像を小さな実世界のデータセットに追加することで、検出パフォーマンスが大幅に向上することを示しています。
- 参考スコア(独自算出の注目度): 1.4528189330418975
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Object detection in aerial images is an important task in environmental,
economic, and infrastructure-related tasks. One of the most prominent
applications is the detection of vehicles, for which deep learning approaches
are increasingly used. A major challenge in such approaches is the limited
amount of data that arises, for example, when more specialized and rarer
vehicles such as agricultural machinery or construction vehicles are to be
detected. This lack of data contrasts with the enormous data hunger of deep
learning methods in general and object recognition in particular. In this
article, we address this issue in the context of the detection of road vehicles
in aerial images. To overcome the lack of annotated data, we propose a
generative approach that generates top-down images by overlaying artificial
vehicles created from 2D CAD drawings on artificial or real backgrounds. Our
experiments with a modified RetinaNet object detection network show that adding
these images to small real-world datasets significantly improves detection
performance. In cases of very limited or even no real-world images, we observe
an improvement in average precision of up to 0.70 points. We address the
remaining performance gap to real-world datasets by analyzing the effect of the
image composition of background and objects and give insights into the
importance of background.
- Abstract(参考訳): 空中画像における物体検出は, 環境, 経済, インフラ関連タスクにおいて重要な課題である。
最も顕著な応用の1つは、深層学習アプローチがますます使われる車両の検出である。
このようなアプローチの大きな課題は、例えば農業機械や建設車両のようなより専門的で稀な車両が検出される場合に発生する限られた量のデータである。
このデータの欠如は、ディープラーニング手法の膨大なデータ飢餓と、特に物体認識との対比である。
本稿では,航空画像における道路車両検出の文脈において,この問題に対処する。
アノテーション付きデータの欠如を克服するために,2次元cad描画から作成した車両を人工的あるいは実際の背景に重ね合わせてトップダウン画像を生成する生成手法を提案する。
修正されたRetinaNetオブジェクト検出ネットワークを用いた実験により、これらの画像を小さな実世界のデータセットに追加することで、検出性能が大幅に向上することが示された。
非常に制限された、あるいは実世界の画像が存在しない場合、平均精度が0.70ポイント向上するのを観察した。
背景とオブジェクトのイメージ構成の影響を分析し,背景の重要度に関する洞察を提供することにより,実世界のデータセットに対する残りのパフォーマンスギャップに対処する。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - On the Robustness of Object Detection Models in Aerial Images [37.50307094643692]
DOTA-v1.0に基づく新しいベンチマークを2つ導入する。
第1のベンチマークは、19の一般的な汚職を含むが、第2のベンチマークは、クラウド崩壊したイメージに焦点を当てている。
改良されたモデルアーキテクチャ,大規模ネットワーク,高度に構築されたモジュール,および巧妙なデータ拡張戦略により,航空物体検出モデルの堅牢性が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-29T15:16:51Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing [2.7400353551392853]
本稿では,接近・着陸時の滑走路検出のための高品質な空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されていますが、実際の着陸映像から手動でラベル付けされた画像も提供しています。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
論文 参考訳(メタデータ) (2023-04-05T08:25:55Z) - Aerial Image Object Detection With Vision Transformer Detector (ViTDet) [0.0]
Vision Transformer Detector (ViTDet) はオブジェクト検出のためのマルチスケール特徴を抽出するために提案されている。
ViTDetのシンプルな設計は、自然のシーン画像に優れた性能を実現し、どんな検出器アーキテクチャにも簡単に組み込むことができる。
以上の結果から,VTDetは水平バウンディングボックス(HBB)オブジェクト検出において,畳み込みニューラルネットワークよりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2023-01-28T02:25:30Z) - Progressive Domain Adaptation with Contrastive Learning for Object
Detection in the Satellite Imagery [0.0]
最先端のオブジェクト検出手法は、小さくて密度の高いオブジェクトを特定するのにほとんど失敗している。
本稿では,特徴抽出プロセスを改善する小型物体検出パイプラインを提案する。
未確認データセットにおけるオブジェクト識別の劣化を緩和できることを示す。
論文 参考訳(メタデータ) (2022-09-06T15:16:35Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - Object Detection in Aerial Images: A Large-Scale Benchmark and
Challenges [124.48654341780431]
航空画像(DOTA)におけるオブジェクトデテクションの大規模データセットとODAIの総合的ベースラインについて述べる。
提案するDOTAデータセットは,11,268個の空中画像から収集した18カテゴリのオブジェクト指向ボックスアノテーションの1,793,658個のオブジェクトインスタンスを含む。
70以上の構成を持つ10の最先端アルゴリズムをカバーするベースラインを構築し,各モデルの速度と精度を評価した。
論文 参考訳(メタデータ) (2021-02-24T11:20:55Z) - Deep Traffic Sign Detection and Recognition Without Target Domain Real
Images [52.079665469286496]
本稿では,ターゲットドメインからの実際の画像を必要としない新しいデータベース生成手法と,(ii)交通標識のテンプレートを提案する。
この方法は、実際のデータでトレーニングを克服することではなく、実際のデータが利用できない場合に互換性のある代替手段になることを目的としている。
大規模なデータセットでは、完全に合成されたデータセットによるトレーニングは、実際のデータセットとトレーニングのパフォーマンスにほぼ一致する。
論文 参考訳(メタデータ) (2020-07-30T21:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。