論文の概要: Image Generation for Efficient Neural Network Training in Autonomous
Drone Racing
- arxiv url: http://arxiv.org/abs/2008.02596v1
- Date: Thu, 6 Aug 2020 12:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:46:07.432755
- Title: Image Generation for Efficient Neural Network Training in Autonomous
Drone Racing
- Title(参考訳): 自律型ドローンレースにおけるニューラルネットワーク学習のための画像生成
- Authors: Theo Morales, Andriy Sarabakha, Erdal Kayacan
- Abstract要約: 自律型ドローンレースでは、未知の環境で完全に自律的に飛行することで、この課題を達成する必要がある。
色や幾何学に基づく従来の物体検出アルゴリズムは失敗する傾向がある。
本研究では,実際の背景画像とゲートのランダム化3次元レンダリングを組み合わせた半合成データセット生成手法を提案する。
- 参考スコア(独自算出の注目度): 15.114944019221456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drone racing is a recreational sport in which the goal is to pass through a
sequence of gates in a minimum amount of time while avoiding collisions. In
autonomous drone racing, one must accomplish this task by flying fully
autonomously in an unknown environment by relying only on computer vision
methods for detecting the target gates. Due to the challenges such as
background objects and varying lighting conditions, traditional object
detection algorithms based on colour or geometry tend to fail. Convolutional
neural networks offer impressive advances in computer vision but require an
immense amount of data to learn. Collecting this data is a tedious process
because the drone has to be flown manually, and the data collected can suffer
from sensor failures. In this work, a semi-synthetic dataset generation method
is proposed, using a combination of real background images and randomised 3D
renders of the gates, to provide a limitless amount of training samples that do
not suffer from those drawbacks. Using the detection results, a line-of-sight
guidance algorithm is used to cross the gates. In several experimental
real-time tests, the proposed framework successfully demonstrates fast and
reliable detection and navigation.
- Abstract(参考訳): ドローンレース(drone racing)は、衝突を避けながら、最小限の時間で一連のゲートを通過することを目標とするレクリエーションスポーツである。
自律型ドローンレースでは、ターゲットゲートを検出するコンピュータビジョン手法にのみ依存して、未知の環境で完全に自律的に飛行することで、この課題を達成する必要がある。
背景オブジェクトや様々な照明条件などの課題のため、色や幾何学に基づく従来の物体検出アルゴリズムは失敗する傾向にある。
畳み込みニューラルネットワークはコンピュータビジョンの素晴らしい進歩をもたらすが、学習するには膨大なデータを必要とする。
このデータ収集は、ドローンを手動で飛行させる必要があり、収集されたデータはセンサーの故障に苦しむため、面倒なプロセスである。
本研究では,実際の背景画像とランダム化されたゲートの3dレンダリングを組み合わせた半合成データセット生成法を提案する。
検出結果を用いて、ゲートを横断する行順誘導アルゴリズムを用いる。
いくつかの実験的なリアルタイムテストにおいて、提案するフレームワークは高速で信頼性の高い検出とナビゲーションをうまく実証する。
関連論文リスト
- DroBoost: An Intelligent Score and Model Boosting Method for Drone Detection [1.2564343689544843]
ドローン検出は、画像の可視性や品質が好ましくないような、困難な物体検出タスクである。
私たちの仕事は、いくつかの改善を組み合わせることで、以前のアプローチを改善します。
提案された技術は、Drone vs. Bird Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2024-06-30T20:49:56Z) - Multi-Object Tracking based on Imaging Radar 3D Object Detection [0.13499500088995461]
本稿では,古典的追跡アルゴリズムを用いて,周囲の交通参加者を追跡する手法を提案する。
学習に基づく物体検出器はライダーとカメラのデータに適切に対応し、学習に基づく物体検出器は標準のレーダーデータ入力により劣っていることが示されている。
レーダセンサ技術の改良により、レーダの物体検出性能は大幅に改善されたが、レーダ点雲の広さによりライダーセンサに制限されている。
追跡アルゴリズムは、一貫したトラックを生成しながら、限られた検出品質を克服しなければならない。
論文 参考訳(メタデータ) (2024-06-03T05:46:23Z) - C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Cut and Continuous Paste towards Real-time Deep Fall Detection [12.15584530151789]
本稿では,単一かつ小型の畳み込みニューラルネットワークを通じてフォールを検出するための,シンプルで効率的なフレームワークを提案する。
まず,人間の動きを1フレームで表現する画像合成手法を提案する。
推論ステップでは、入力フレームの平均値を推定することにより、実際の人間の動きを1つの画像で表現する。
論文 参考訳(メタデータ) (2022-02-22T06:07:16Z) - Finding a Needle in a Haystack: Tiny Flying Object Detection in 4K
Videos using a Joint Detection-and-Tracking Approach [19.59528430884104]
本稿では,検出と追跡を共同で行うrecurrent correlational networkと呼ばれるニューラルネットワークモデルを提案する。
鳥や無人航空機などの小さな飛行物体の画像を含むデータセットを用いた実験では、提案手法は一貫した改善をもたらした。
我々のネットワークは、鳥の画像データセットのトラッカーとして評価されたとき、最先端の汎用オブジェクトトラッカと同様に機能します。
論文 参考訳(メタデータ) (2021-05-18T03:22:03Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。