論文の概要: AVOIDDS: Aircraft Vision-based Intruder Detection Dataset and Simulator
- arxiv url: http://arxiv.org/abs/2306.11203v1
- Date: Mon, 19 Jun 2023 23:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 16:12:32.361978
- Title: AVOIDDS: Aircraft Vision-based Intruder Detection Dataset and Simulator
- Title(参考訳): AVOIDDS:航空機ビジョンに基づく侵入者検出データセットとシミュレータ
- Authors: Elysia Q. Smyers, Sydney M. Katz, Anthony L. Corso and Mykel J.
Kochenderfer
- Abstract要約: AVOIDDSは、視覚に基づく航空機の検知・回避問題に対する現実的な物体検出ベンチマークである。
このベンチマークにより、安全クリティカルなアプリケーションに使用する堅牢な機械学習システムの設計に関するさらなる研究が可能になる。
- 参考スコア(独自算出の注目度): 30.88972029876969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing robust machine learning systems remains an open problem, and there
is a need for benchmark problems that cover both environmental changes and
evaluation on a downstream task. In this work, we introduce AVOIDDS, a
realistic object detection benchmark for the vision-based aircraft
detect-and-avoid problem. We provide a labeled dataset consisting of 72,000
photorealistic images of intruder aircraft with various lighting conditions,
weather conditions, relative geometries, and geographic locations. We also
provide an interface that evaluates trained models on slices of this dataset to
identify changes in performance with respect to changing environmental
conditions. Finally, we implement a fully-integrated, closed-loop simulator of
the vision-based detect-and-avoid problem to evaluate trained models with
respect to the downstream collision avoidance task. This benchmark will enable
further research in the design of robust machine learning systems for use in
safety-critical applications. The AVOIDDS dataset and code are publicly
available at
$\href{https://purl.stanford.edu/hj293cv5980}{purl.stanford.edu/hj293cv5980}$
and
$\href{https://github.com/sisl/VisionBasedAircraftDAA}{github.com/sisl/VisionBasedAircraftDAA}$,
respectively.
- Abstract(参考訳): 堅牢な機械学習システムの設計は依然としてオープンな問題であり、下流タスクにおける環境変化と評価の両方をカバーするベンチマーク問題が必要である。
本研究では,視覚に基づく航空機検出・回避問題に対する現実的な物体検出ベンチマークであるAVOIDDSを紹介する。
様々な照明条件、気象条件、相対測地および地理的位置を有する侵入者航空機の72,000枚のフォトリアリスティック画像からなるラベル付きデータセットを提供する。
また、このデータセットのスライス上でトレーニングされたモデルを評価し、環境条件の変化に対する性能の変化を特定するインタフェースも提供する。
最後に,視覚に基づく検出・回避問題の完全統合型閉ループシミュレータを実装し,下流衝突回避タスクに対する訓練モデルの評価を行った。
このベンチマークにより、安全クリティカルなアプリケーションに使用する堅牢な機械学習システムの設計に関するさらなる研究が可能になる。
AVOIDDSデータセットとコードは、$\href{https://purl.stanford.edu/hj293cv5980}{purl.stanford.edu/hj293cv5980}$と$\href{https://github.com/sisl/VisionBasedAircraftDAA}{github.com/sisl/VisionBasedAircraftDAA}$で公開されている。
関連論文リスト
- AssemAI: Interpretable Image-Based Anomaly Detection for Manufacturing Pipelines [0.0]
製造パイプラインにおける異常検出は、産業環境の複雑さと変動性によって強化され、依然として重要な課題である。
本稿では,スマート製造パイプラインに適した解釈可能な画像ベース異常検出システムAssemAIを紹介する。
論文 参考訳(メタデータ) (2024-08-05T01:50:09Z) - BEHAVIOR Vision Suite: Customizable Dataset Generation via Simulation [57.40024206484446]
我々は、コンピュータビジョンモデルの体系的評価のために、完全にカスタマイズされた合成データを生成するためのツールと資産のセットであるBEHAVIOR Vision Suite(BVS)を紹介する。
BVSはシーンレベルで多数の調整可能なパラメータをサポートする。
アプリケーションシナリオを3つ紹介する。
論文 参考訳(メタデータ) (2024-05-15T17:57:56Z) - Automatic UAV-based Airport Pavement Inspection Using Mixed Real and
Virtual Scenarios [3.0874677990361246]
本稿では,UAVが捉えた画像を用いて,舗装の苦悩を自動的に識別する視覚的アプローチを提案する。
提案手法は,画像の欠陥を分割する深層学習(DL)に基づいている。
合成および実訓練画像からなる混合データセットを使用することで、実アプリケーションシナリオでトレーニングモデルをテストする場合、より良い結果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-11T16:30:07Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing [2.7400353551392853]
本稿では,接近・着陸時の滑走路検出のための高品質な空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されていますが、実際の着陸映像から手動でラベル付けされた画像も提供しています。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
論文 参考訳(メタデータ) (2023-04-05T08:25:55Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - A benchmark dataset for deep learning-based airplane detection: HRPlanes [3.5297361401370044]
Google Earth(GE)の画像を用いて,高分解能平面(HRPlanes)と呼ばれる新しい航空機検出データセットを作成する。
HRPlanは、様々な衛星から得られた様々な地形、季節、衛星の幾何学的条件を表すために、世界中の様々な空港のGE画像を含む。
予備的な結果から,提案したデータセットは将来のアプリケーションに有用なデータソースとベンチマークデータセットとなる可能性が示唆された。
論文 参考訳(メタデータ) (2022-04-22T23:49:44Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。