論文の概要: Image Generation for Efficient Neural Network Training in Autonomous
Drone Racing
- arxiv url: http://arxiv.org/abs/2008.02596v1
- Date: Thu, 6 Aug 2020 12:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:46:07.432755
- Title: Image Generation for Efficient Neural Network Training in Autonomous
Drone Racing
- Title(参考訳): 自律型ドローンレースにおけるニューラルネットワーク学習のための画像生成
- Authors: Theo Morales, Andriy Sarabakha, Erdal Kayacan
- Abstract要約: 自律型ドローンレースでは、未知の環境で完全に自律的に飛行することで、この課題を達成する必要がある。
色や幾何学に基づく従来の物体検出アルゴリズムは失敗する傾向がある。
本研究では,実際の背景画像とゲートのランダム化3次元レンダリングを組み合わせた半合成データセット生成手法を提案する。
- 参考スコア(独自算出の注目度): 15.114944019221456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drone racing is a recreational sport in which the goal is to pass through a
sequence of gates in a minimum amount of time while avoiding collisions. In
autonomous drone racing, one must accomplish this task by flying fully
autonomously in an unknown environment by relying only on computer vision
methods for detecting the target gates. Due to the challenges such as
background objects and varying lighting conditions, traditional object
detection algorithms based on colour or geometry tend to fail. Convolutional
neural networks offer impressive advances in computer vision but require an
immense amount of data to learn. Collecting this data is a tedious process
because the drone has to be flown manually, and the data collected can suffer
from sensor failures. In this work, a semi-synthetic dataset generation method
is proposed, using a combination of real background images and randomised 3D
renders of the gates, to provide a limitless amount of training samples that do
not suffer from those drawbacks. Using the detection results, a line-of-sight
guidance algorithm is used to cross the gates. In several experimental
real-time tests, the proposed framework successfully demonstrates fast and
reliable detection and navigation.
- Abstract(参考訳): ドローンレース(drone racing)は、衝突を避けながら、最小限の時間で一連のゲートを通過することを目標とするレクリエーションスポーツである。
自律型ドローンレースでは、ターゲットゲートを検出するコンピュータビジョン手法にのみ依存して、未知の環境で完全に自律的に飛行することで、この課題を達成する必要がある。
背景オブジェクトや様々な照明条件などの課題のため、色や幾何学に基づく従来の物体検出アルゴリズムは失敗する傾向にある。
畳み込みニューラルネットワークはコンピュータビジョンの素晴らしい進歩をもたらすが、学習するには膨大なデータを必要とする。
このデータ収集は、ドローンを手動で飛行させる必要があり、収集されたデータはセンサーの故障に苦しむため、面倒なプロセスである。
本研究では,実際の背景画像とランダム化されたゲートの3dレンダリングを組み合わせた半合成データセット生成法を提案する。
検出結果を用いて、ゲートを横断する行順誘導アルゴリズムを用いる。
いくつかの実験的なリアルタイムテストにおいて、提案するフレームワークは高速で信頼性の高い検出とナビゲーションをうまく実証する。
関連論文リスト
- ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - A Search and Detection Autonomous Drone System: from Design to
Implementation [7.760962597460447]
ターゲットを見つけるのに要する時間の観点からの探索効率は、山火事の検出に不可欠である。
経路計画と目標検出という2つのアルゴリズムが提案されている。
その結果,提案アルゴリズムはミッションの平均時間を大幅に短縮することがわかった。
論文 参考訳(メタデータ) (2022-11-29T01:44:29Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Cut and Continuous Paste towards Real-time Deep Fall Detection [12.15584530151789]
本稿では,単一かつ小型の畳み込みニューラルネットワークを通じてフォールを検出するための,シンプルで効率的なフレームワークを提案する。
まず,人間の動きを1フレームで表現する画像合成手法を提案する。
推論ステップでは、入力フレームの平均値を推定することにより、実際の人間の動きを1つの画像で表現する。
論文 参考訳(メタデータ) (2022-02-22T06:07:16Z) - Semi-supervised 3D Object Detection via Temporal Graph Neural Networks [17.90796183565084]
3Dオブジェクト検出は、自動運転やその他のロボット工学応用において重要な役割を果たす。
本研究では,3次元物体検出器の半教師付き学習により,大量の未ラベルのクラウドビデオを活用することを提案する。
本手法は,難解な nuScenes と H3D ベンチマーク上での最先端検出性能を実現する。
論文 参考訳(メタデータ) (2022-02-01T02:06:54Z) - Finding a Needle in a Haystack: Tiny Flying Object Detection in 4K
Videos using a Joint Detection-and-Tracking Approach [19.59528430884104]
本稿では,検出と追跡を共同で行うrecurrent correlational networkと呼ばれるニューラルネットワークモデルを提案する。
鳥や無人航空機などの小さな飛行物体の画像を含むデータセットを用いた実験では、提案手法は一貫した改善をもたらした。
我々のネットワークは、鳥の画像データセットのトラッカーとして評価されたとき、最先端の汎用オブジェクトトラッカと同様に機能します。
論文 参考訳(メタデータ) (2021-05-18T03:22:03Z) - Verification of Image-based Neural Network Controllers Using Generative
Models [30.34898838361206]
本稿では,GAN (Generative Adversarial Network) を学習し,入力画像に状態をマップする手法を提案する。
発電機ネットワークと制御ネットワークを連結することにより、低次元の入力空間を有するネットワークを得る。
本手法は,自律航空機のタクシー問題に対して,画像ベースニューラルネットワークコントローラの安全性保証を行う。
論文 参考訳(メタデータ) (2021-05-14T23:18:05Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。