論文の概要: FOD-A: A Dataset for Foreign Object Debris in Airports
- arxiv url: http://arxiv.org/abs/2110.03072v1
- Date: Wed, 6 Oct 2021 21:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:01:57.900744
- Title: FOD-A: A Dataset for Foreign Object Debris in Airports
- Title(参考訳): FOD-A:空港における異物デブリのデータセット
- Authors: Travis Munyer, Pei-Chi Huang, Chenyu Huang, Xin Zhong
- Abstract要約: 外部オブジェクトデブリ(FOD)検出は、機械学習とコンピュータビジョンの領域で注目を集めている。
本稿では,空港におけるFOD(FOD-A)と命名されたFODの画像データセットを紹介する。
FOD-Aオブジェクトカテゴリは、連邦航空局(FAA)による以前の文書および関連する研究のガイダンスに基づいて選択されている。
- 参考スコア(独自算出の注目度): 2.709804256642196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foreign Object Debris (FOD) detection has attracted increased attention in
the area of machine learning and computer vision. However, a robust and
publicly available image dataset for FOD has not been initialized. To this end,
this paper introduces an image dataset of FOD, named FOD in Airports (FOD-A).
FOD-A object categories have been selected based on guidance from prior
documentation and related research by the Federal Aviation Administration
(FAA). In addition to the primary annotations of bounding boxes for object
detection, FOD-A provides labeled environmental conditions. As such, each
annotation instance is further categorized into three light level categories
(bright, dim, and dark) and two weather categories (dry and wet). Currently,
FOD-A has released 31 object categories and over 30,000 annotation instances.
This paper presents the creation methodology, discusses the publicly available
dataset extension process, and demonstrates the practicality of FOD-A with
widely used machine learning models for object detection.
- Abstract(参考訳): 外部オブジェクトデブリ(fod)検出は、機械学習とコンピュータビジョンの分野で注目を集めている。
しかし、FOD用の堅牢で公開のイメージデータセットは初期化されていない。
そこで本稿では,FOD in Airports (FOD-A) と呼ばれるFODの画像データセットを提案する。
FOD-Aオブジェクトカテゴリは、連邦航空局(FAA)による以前の文書および関連する研究のガイダンスに基づいて選択されている。
オブジェクト検出のためのバウンディングボックスの主なアノテーションに加えて、fod-aはラベル付き環境条件を提供する。
それぞれのアノテーションインスタンスはさらに3つのライトレベルカテゴリ(ブライト、ダイム、ダーク)と2つの天気カテゴリ(ドライ、ウェット)に分類される。
現在、fod-aは31のオブジェクトカテゴリと30,000以上のアノテーションインスタンスをリリースした。
本稿では,公開データセット拡張プロセスについて議論し,オブジェクト検出に広く使用される機械学習モデルを用いたfod-aの実用性を示す。
関連論文リスト
- End-to-End 3D Object Detection using LiDAR Point Cloud [0.0]
本稿では,LiDAR点雲の新たなエンコーディングを用いて,自律走行車に近いクラスの位置を推定する手法を提案する。
出力は、シーン内のオブジェクトの位置と向きを3D境界ボックスとシーンオブジェクトのラベルで予測する。
論文 参考訳(メタデータ) (2023-12-24T00:52:14Z) - SF-FSDA: Source-Free Few-Shot Domain Adaptive Object Detection with
Efficient Labeled Data Factory [94.11898696478683]
ドメイン適応オブジェクト検出は、ラベル付きソースドメインから学んだ知識を活用し、ラベルなしのターゲットドメインのパフォーマンスを改善することを目的としています。
本研究では,SF-FSDA という名称のソースフリーおよび少数ショット条件下で,より実用的で困難な領域適応型オブジェクト検出問題を提案し,検討する。
論文 参考訳(メタデータ) (2023-06-07T12:34:55Z) - Open World DETR: Transformer based Open World Object Detection [60.64535309016623]
そこで我々は,Deformable DETRに基づくオープンワールドオブジェクト検出のための2段階学習手法Open World DETRを提案する。
モデルのクラス固有のコンポーネントを多視点の自己ラベル戦略と一貫性制約で微調整する。
提案手法は、他の最先端のオープンワールドオブジェクト検出方法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-12-06T13:39:30Z) - Foreign Object Debris Detection for Airport Pavement Images based on
Self-supervised Localization and Vision Transformer [2.619652989492286]
本稿では,滑走路画像の予測を学習し,自己教師付きFODローカライゼーションを提案する。
実世界の滑走路状況における任意のFODの検出に成功していることを示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-30T17:48:57Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Integrative Use of Computer Vision and Unmanned Aircraft Technologies in
Public Inspection: Foreign Object Debris Image Collection [2.709804256642196]
無人航空機システム(UAS)は公共サービス事業者やスマートシティにとって重要な資源となっている。
本研究の目的は,コンピュータビジョンとUAS技術を統合して公衆検査を自動化することである。
最初のケーススタディとして、軽量自動検出の可能性を評価するために、一般的な異物デブリ(FOD)のデータセットが開発された。
論文 参考訳(メタデータ) (2021-06-01T00:45:32Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - EAGLE: Large-scale Vehicle Detection Dataset in Real-World Scenarios
using Aerial Imagery [3.8902657229395894]
航空画像における物体方向情報を用いた多種多様な車両検出のための大規模データセットを提案する。
様々なカメラセンサー、解像度、飛行高度、天候、照明、ヘイズ、シャドウ、時間、都市、国、オクルージョン、カメラアングルを備えた、さまざまな現実世界の状況からなる高解像度の空中画像が特徴である。
215,986のインスタンスに4つのポイントと向きで定義された向き付きバウンディングボックスがアノテートされており、このタスクでこれまでで最大のデータセットとなっている。
また、ヘイズやシャドウ除去の研究や、超高解像度やインペイントの応用も支援している。
論文 参考訳(メタデータ) (2020-07-12T23:00:30Z) - BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View [117.44028458220427]
自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
本稿では,BEV画像のみから指向性3Dボックスを推測可能な,エンドツーエンドの3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-09T15:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。