論文の概要: Validation of object detection in UAV-based images using synthetic data
- arxiv url: http://arxiv.org/abs/2201.06629v1
- Date: Mon, 17 Jan 2022 20:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 16:17:20.592124
- Title: Validation of object detection in UAV-based images using synthetic data
- Title(参考訳): 合成データを用いたUAV画像における物体検出の検証
- Authors: Eung-Joo Lee, Damon M. Conover, Shuvra S. Bhattacharyyaa, Heesung
Kwon, Jason Hill, Kenneth Evensen
- Abstract要約: UAVベースの検出のための機械学習(ML)モデルは、UAVアプリケーションとは無関係なタスクのためにキュレートされたデータを使用して検証されることが多い。
このようなエラーは、UAVの画像と訓練中の画像との間の画像条件の違いによって生じる。
本研究は,ゲームエンジンを用いて生成した合成データを用いて,異なるUAV画像条件が検出性能に与える影響を理解することに焦点を当てた。
- 参考スコア(独自算出の注目度): 9.189702268557483
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Object detection is increasingly used onboard Unmanned Aerial Vehicles (UAV)
for various applications; however, the machine learning (ML) models for
UAV-based detection are often validated using data curated for tasks unrelated
to the UAV application. This is a concern because training neural networks on
large-scale benchmarks have shown excellent capability in generic object
detection tasks, yet conventional training approaches can lead to large
inference errors for UAV-based images. Such errors arise due to differences in
imaging conditions between images from UAVs and images in training. To overcome
this problem, we characterize boundary conditions of ML models, beyond which
the models exhibit rapid degradation in detection accuracy. Our work is focused
on understanding the impact of different UAV-based imaging conditions on
detection performance by using synthetic data generated using a game engine.
Properties of the game engine are exploited to populate the synthetic datasets
with realistic and annotated images. Specifically, it enables the fine control
of various parameters, such as camera position, view angle, illumination
conditions, and object pose. Using the synthetic datasets, we analyze detection
accuracy in different imaging conditions as a function of the above parameters.
We use three well-known neural network models with different model complexity
in our work. In our experiment, we observe and quantify the following: 1) how
detection accuracy drops as the camera moves toward the nadir-view region; 2)
how detection accuracy varies depending on different object poses, and 3) the
degree to which the robustness of the models changes as illumination conditions
vary.
- Abstract(参考訳): 物体検出は無人航空機(UAV)上で様々な用途に使用されることが多いが、UAVに基づく検出のための機械学習(ML)モデルは、UAVアプリケーションとは無関係なタスクのためにキュレートされたデータを用いて検証されることが多い。
これは、大規模ベンチマークでニューラルネットワークをトレーニングすることは、汎用オブジェクト検出タスクにおいて優れた能力を示しているが、従来のトレーニングアプローチは、uavベースの画像に対する大きな推論エラーを引き起こす可能性があるため、懸念である。
このようなエラーは、UAVの画像と訓練中の画像との間の画像条件の違いによって生じる。
この問題を解決するために,MLモデルの境界条件を特徴付ける。
本研究は,ゲームエンジンを用いて生成した合成データを用いて,異なるUAV画像条件が検出性能に与える影響を理解することに焦点を当てた。
ゲームエンジンの特性は、合成データセットに写実的で注釈付きイメージを投入するために利用される。
具体的には、カメラの位置、視野角、照明条件、被写体ポーズなどの様々なパラメータの微調整を可能にする。
合成データセットを用いて、上記パラメータの関数として、異なる撮像条件における検出精度を解析する。
私たちの研究では、モデル複雑性が異なる3つのよく知られたニューラルネットワークモデルを使用しています。
実験では、以下のことを観察し、定量化する。
1)カメラがnadirビュー領域に向かって移動すると、検出精度が低下する。
2) 物体のポーズによって検出精度がどう変化するか, および
3)照明条件によってモデルの頑健性が変化する程度が変化する。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Synthetic imagery for fuzzy object detection: A comparative study [3.652647451754697]
ファジィ物体検出はコンピュータビジョン(CV)研究の難しい分野である
火、煙、霧、蒸気のようなファジィな物体は、視覚的特徴の点で非常に複雑である。
完全合成火災画像の生成と自動アノテートのための代替手法を提案し,活用する。
論文 参考訳(メタデータ) (2024-10-01T23:22:54Z) - AssemAI: Interpretable Image-Based Anomaly Detection for Manufacturing Pipelines [0.0]
製造パイプラインにおける異常検出は、産業環境の複雑さと変動性によって強化され、依然として重要な課題である。
本稿では,スマート製造パイプラインに適した解釈可能な画像ベース異常検出システムAssemAIを紹介する。
論文 参考訳(メタデータ) (2024-08-05T01:50:09Z) - Online-Adaptive Anomaly Detection for Defect Identification in Aircraft Assembly [4.387337528923525]
異常検出は、データ内の確立されたパターンから逸脱を検出する。
本稿では,移動学習を用いたオンライン適応型異常検出のための新しいフレームワークを提案する。
実験結果は0.975を超える検出精度を示し、最先端のET-NETアプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-06-18T15:11:44Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Decoupled Appearance and Motion Learning for Efficient Anomaly Detection
in Surveillance Video [9.80717374118619]
我々は、純粋に教師なしの方法で正常な振る舞いを学習する新しいニューラルネットワークアーキテクチャを提案する。
我々のモデルは、関連するアプローチの16倍から45倍のフレームを毎秒処理できる。
論文 参考訳(メタデータ) (2020-11-10T11:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。