論文の概要: Validation of object detection in UAV-based images using synthetic data
- arxiv url: http://arxiv.org/abs/2201.06629v1
- Date: Mon, 17 Jan 2022 20:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 16:17:20.592124
- Title: Validation of object detection in UAV-based images using synthetic data
- Title(参考訳): 合成データを用いたUAV画像における物体検出の検証
- Authors: Eung-Joo Lee, Damon M. Conover, Shuvra S. Bhattacharyyaa, Heesung
Kwon, Jason Hill, Kenneth Evensen
- Abstract要約: UAVベースの検出のための機械学習(ML)モデルは、UAVアプリケーションとは無関係なタスクのためにキュレートされたデータを使用して検証されることが多い。
このようなエラーは、UAVの画像と訓練中の画像との間の画像条件の違いによって生じる。
本研究は,ゲームエンジンを用いて生成した合成データを用いて,異なるUAV画像条件が検出性能に与える影響を理解することに焦点を当てた。
- 参考スコア(独自算出の注目度): 9.189702268557483
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Object detection is increasingly used onboard Unmanned Aerial Vehicles (UAV)
for various applications; however, the machine learning (ML) models for
UAV-based detection are often validated using data curated for tasks unrelated
to the UAV application. This is a concern because training neural networks on
large-scale benchmarks have shown excellent capability in generic object
detection tasks, yet conventional training approaches can lead to large
inference errors for UAV-based images. Such errors arise due to differences in
imaging conditions between images from UAVs and images in training. To overcome
this problem, we characterize boundary conditions of ML models, beyond which
the models exhibit rapid degradation in detection accuracy. Our work is focused
on understanding the impact of different UAV-based imaging conditions on
detection performance by using synthetic data generated using a game engine.
Properties of the game engine are exploited to populate the synthetic datasets
with realistic and annotated images. Specifically, it enables the fine control
of various parameters, such as camera position, view angle, illumination
conditions, and object pose. Using the synthetic datasets, we analyze detection
accuracy in different imaging conditions as a function of the above parameters.
We use three well-known neural network models with different model complexity
in our work. In our experiment, we observe and quantify the following: 1) how
detection accuracy drops as the camera moves toward the nadir-view region; 2)
how detection accuracy varies depending on different object poses, and 3) the
degree to which the robustness of the models changes as illumination conditions
vary.
- Abstract(参考訳): 物体検出は無人航空機(UAV)上で様々な用途に使用されることが多いが、UAVに基づく検出のための機械学習(ML)モデルは、UAVアプリケーションとは無関係なタスクのためにキュレートされたデータを用いて検証されることが多い。
これは、大規模ベンチマークでニューラルネットワークをトレーニングすることは、汎用オブジェクト検出タスクにおいて優れた能力を示しているが、従来のトレーニングアプローチは、uavベースの画像に対する大きな推論エラーを引き起こす可能性があるため、懸念である。
このようなエラーは、UAVの画像と訓練中の画像との間の画像条件の違いによって生じる。
この問題を解決するために,MLモデルの境界条件を特徴付ける。
本研究は,ゲームエンジンを用いて生成した合成データを用いて,異なるUAV画像条件が検出性能に与える影響を理解することに焦点を当てた。
ゲームエンジンの特性は、合成データセットに写実的で注釈付きイメージを投入するために利用される。
具体的には、カメラの位置、視野角、照明条件、被写体ポーズなどの様々なパラメータの微調整を可能にする。
合成データセットを用いて、上記パラメータの関数として、異なる撮像条件における検出精度を解析する。
私たちの研究では、モデル複雑性が異なる3つのよく知られたニューラルネットワークモデルを使用しています。
実験では、以下のことを観察し、定量化する。
1)カメラがnadirビュー領域に向かって移動すると、検出精度が低下する。
2) 物体のポーズによって検出精度がどう変化するか, および
3)照明条件によってモデルの頑健性が変化する程度が変化する。
関連論文リスト
- On the Robustness of Object Detection Models in Aerial Images [37.50307094643692]
DOTA-v1.0に基づく新しいベンチマークを2つ導入する。
第1のベンチマークは、19の一般的な汚職を含むが、第2のベンチマークは、クラウド崩壊したイメージに焦点を当てている。
改良されたモデルアーキテクチャ,大規模ネットワーク,高度に構築されたモジュール,および巧妙なデータ拡張戦略により,航空物体検出モデルの堅牢性が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-29T15:16:51Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Detecting Anomalies using Generative Adversarial Networks on Images [0.0]
本稿では,新しいGANに基づく異常検出モデルを提案する。
通常の(非非正則な)画像を使用して、入力画像が異常/脅威オブジェクトを含むかどうかを検知する正常性について学習する。
CIFAR-10、MVTec AD(産業応用用)、SIXray(X線バッグセキュリティ用)の3つのデータセットで実験が行われた。
論文 参考訳(メタデータ) (2022-11-24T21:52:25Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - Comprehensive Analysis of the Object Detection Pipeline on UAVs [16.071349046409885]
まず、リモートセンシングアプリケーションにおける7つのパラメータ(量子化、圧縮、解像度、色モデル、画像歪み、ガンマ補正、追加チャネル)の影響を実験的に分析する。
すべてのパラメータが検出精度とデータスループットに等しく影響を与えるわけではなく、パラメータ間の適切な妥協により、軽量物体検出モデルの検出精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-01T09:30:01Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Decoupled Appearance and Motion Learning for Efficient Anomaly Detection
in Surveillance Video [9.80717374118619]
我々は、純粋に教師なしの方法で正常な振る舞いを学習する新しいニューラルネットワークアーキテクチャを提案する。
我々のモデルは、関連するアプローチの16倍から45倍のフレームを毎秒処理できる。
論文 参考訳(メタデータ) (2020-11-10T11:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。