論文の概要: LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing
- arxiv url: http://arxiv.org/abs/2304.09938v2
- Date: Fri, 21 Apr 2023 13:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 17:02:45.943977
- Title: LARD - Landing Approach Runway Detection -- Dataset for Vision Based
Landing
- Title(参考訳): LARD ランディングアプローチ 滑走路検出 -- ビジョンベースランディングのためのデータセット
- Authors: M\'elanie Ducoffe, Maxime Carrere, L\'eo F\'eliers, Adrien Gauffriau,
Vincent Mussot, Claire Pagetti, Thierry Sammour
- Abstract要約: 本稿では,接近・着陸時の滑走路検出のための高品質な空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されていますが、実際の着陸映像から手動でラベル付けされた画像も提供しています。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
- 参考スコア(独自算出の注目度): 2.7400353551392853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the interest in autonomous systems continues to grow, one of the major
challenges is collecting sufficient and representative real-world data. Despite
the strong practical and commercial interest in autonomous landing systems in
the aerospace field, there is a lack of open-source datasets of aerial images.
To address this issue, we present a dataset-lard-of high-quality aerial images
for the task of runway detection during approach and landing phases. Most of
the dataset is composed of synthetic images but we also provide manually
labelled images from real landing footages, to extend the detection task to a
more realistic setting. In addition, we offer the generator which can produce
such synthetic front-view images and enables automatic annotation of the runway
corners through geometric transformations. This dataset paves the way for
further research such as the analysis of dataset quality or the development of
models to cope with the detection tasks. Find data, code and more up-to-date
information at https://github.com/deel-ai/LARD
- Abstract(参考訳): 自律システムへの関心が高まり続けている中、大きな課題の1つは、十分な実世界のデータを集めることだ。
航空宇宙分野における自律着陸システムへの実践的かつ商業的な関心にもかかわらず、オープンソースの航空画像データセットが不足している。
そこで,本研究では,接近・着陸時の滑走路検出を行うための高画質空中画像のデータセットを提案する。
データセットの大部分は合成画像で構成されているが、実際の着陸映像から手動でラベル付けされた画像も提供し、検出タスクをよりリアルな設定に拡張する。
また,このような合成フロントビュー画像を生成可能なジェネレータを提供し,幾何変換による滑走路コーナーの自動アノテーションを実現する。
このデータセットは、データセットの品質の分析や、検出タスクに対処するモデルの開発など、さらなる研究の道を開く。
https://github.com/deel-ai/LARD
関連論文リスト
- Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - SynDrone -- Multi-modal UAV Dataset for Urban Scenarios [11.338399194998933]
ピクセルレベルのアノテーションを持つ大規模な実際のデータセットの不足は、研究者にとって大きな課題となっている。
本研究では,複数の飛行高度で撮影された画像と3次元データを含むマルチモーダル合成データセットを提案する。
データセットは、UAVアプリケーションをターゲットにした新しいコンピュータビジョンメソッドの開発をサポートするために公開されます。
論文 参考訳(メタデータ) (2023-08-21T06:22:10Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - AVOIDDS: Aircraft Vision-based Intruder Detection Dataset and Simulator [37.579437595742995]
AVOIDDSは、視覚に基づく航空機の検知・回避問題に対する現実的な物体検出ベンチマークである。
各種照明条件を有する侵入機の光実写画像72,000枚からなるラベル付きデータセットを提供する。
また、このデータセットのスライス上でトレーニングされたモデルを評価し、環境条件の変化に対する性能の変化を特定するインタフェースも提供する。
論文 参考訳(メタデータ) (2023-06-19T23:58:07Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Satellite Image Time Series Analysis for Big Earth Observation Data [50.591267188664666]
本稿では,機械学習を用いた衛星画像時系列解析のためのオープンソースRパッケージである sit について述べる。
本手法は, Cerrado Biome のケーススタディにより, 土地利用と土地被覆マップの精度が高いことを示す。
論文 参考訳(メタデータ) (2022-04-24T15:23:25Z) - A benchmark dataset for deep learning-based airplane detection: HRPlanes [3.5297361401370044]
Google Earth(GE)の画像を用いて,高分解能平面(HRPlanes)と呼ばれる新しい航空機検出データセットを作成する。
HRPlanは、様々な衛星から得られた様々な地形、季節、衛星の幾何学的条件を表すために、世界中の様々な空港のGE画像を含む。
予備的な結果から,提案したデータセットは将来のアプリケーションに有用なデータソースとベンチマークデータセットとなる可能性が示唆された。
論文 参考訳(メタデータ) (2022-04-22T23:49:44Z) - Artificial and beneficial -- Exploiting artificial images for aerial
vehicle detection [1.4528189330418975]
本研究では,2次元cad描画から作成した車両を人工的あるいは実際の背景に重ね合わせてトップダウン画像を生成する生成手法を提案する。
修正されたRetinaNetオブジェクト検出ネットワークによる実験では、これらの画像を小さな実世界のデータセットに追加することで、検出パフォーマンスが大幅に向上することを示しています。
論文 参考訳(メタデータ) (2021-04-07T11:06:15Z) - EAGLE: Large-scale Vehicle Detection Dataset in Real-World Scenarios
using Aerial Imagery [3.8902657229395894]
航空画像における物体方向情報を用いた多種多様な車両検出のための大規模データセットを提案する。
様々なカメラセンサー、解像度、飛行高度、天候、照明、ヘイズ、シャドウ、時間、都市、国、オクルージョン、カメラアングルを備えた、さまざまな現実世界の状況からなる高解像度の空中画像が特徴である。
215,986のインスタンスに4つのポイントと向きで定義された向き付きバウンディングボックスがアノテートされており、このタスクでこれまでで最大のデータセットとなっている。
また、ヘイズやシャドウ除去の研究や、超高解像度やインペイントの応用も支援している。
論文 参考訳(メタデータ) (2020-07-12T23:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。