論文の概要: A simple vision-based navigation and control strategy for autonomous
drone racing
- arxiv url: http://arxiv.org/abs/2104.09815v1
- Date: Tue, 20 Apr 2021 08:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 13:26:55.254933
- Title: A simple vision-based navigation and control strategy for autonomous
drone racing
- Title(参考訳): 自律型ドローンレースのためのシンプルなビジョンに基づくナビゲーションと制御戦略
- Authors: Artur Cyba and Hubert Szolc and Tomasz Kryjak
- Abstract要約: 我々は、ドローンがArUcoタグでマークされた一連のゲートを自律的に飛行できる制御システムを提案する。
シンプルで低コストなdji tello edu quad-rotorプラットフォームが使用された。
WiFi経由でドローンとの通信を可能にし、視覚フィードバックに基づくドローン位置決めを実現し、制御を生成するPythonアプリケーションを作成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a control system that allows a drone to fly
autonomously through a series of gates marked with ArUco tags. A simple and
low-cost DJI Tello EDU quad-rotor platform was used. Based on the API provided
by the manufacturer, we have created a Python application that enables the
communication with the drone over WiFi, realises drone positioning based on
visual feedback, and generates control. Two control strategies were proposed,
compared, and critically analysed. In addition, the accuracy of the positioning
method used was measured. The application was evaluated on a laptop computer
(about 40 fps) and a Nvidia Jetson TX2 embedded GPU platform (about 25 fps). We
provide the developed code on GitHub.
- Abstract(参考訳): 本稿では,ArUcoタグでマークされた一連のゲートをドローンが自律的に飛行できるようにする制御システムを提案する。
シンプルで低コストなdji tello edu quad-rotorプラットフォームが使用された。
メーカーが提供するAPIに基づいて,WiFi経由でドローンとの通信を可能にし,視覚的フィードバックに基づいてドローンの位置決めを実現し,制御を生成するPythonアプリケーションを開発した。
2つの制御戦略が提案され、比較され、批判的に分析された。
さらに, 使用した位置決め法の精度を測定した。
アプリケーションはラップトップコンピュータ(約40fps)とNvidia Jetson TX2組み込みGPUプラットフォーム(約25fps)で評価された。
開発したコードはgithubで提供しています。
関連論文リスト
- Obfuscated Location Disclosure for Remote ID Enabled Drones [57.66235862432006]
RID対応ドローン(OLO-RID)の難読化位置情報開示法を提案する。
実際のドローンの位置を開示する代わりに、OLO-RIDを装備したドローンは、モバイルシナリオで異なるプライベートな難解な場所を開示する。
OLO-RIDはまた、暗号化された位置情報でRIDメッセージを拡張し、認証されたエンティティによってのみアクセスすることができる。
論文 参考訳(メタデータ) (2024-07-19T12:35:49Z) - OmniDrones: An Efficient and Flexible Platform for Reinforcement
Learning in Drone Control [16.570253723823996]
我々は、ドローン制御における強化学習に適した、効率的で柔軟なプラットフォームであるOmniDronesを紹介した。
ボトムアップ設計アプローチを採用しており、ユーザーは様々なアプリケーションシナリオを簡単に設計し、実験することができる。
また、シングルドローンホバリングから過度に作動するシステムトラッキングまで、さまざまなベンチマークタスクも提供しています。
論文 参考訳(メタデータ) (2023-09-22T12:26:36Z) - Chasing the Intruder: A Reinforcement Learning Approach for Tracking
Intruder Drones [0.08192907805418582]
本研究では、チェッカードローンを用いて侵入者ドローンを識別・追跡するための強化学習に基づくアプローチを提案する。
提案手法は、強化学習の政策学習フレームワークにインターリーブされたコンピュータビジョン技術を用いている。
その結果、強化学習に基づくポリシーは、侵入者ドローンを識別・追跡するために収束していることがわかった。
論文 参考訳(メタデータ) (2023-09-10T16:31:40Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Learning a Single Near-hover Position Controller for Vastly Different
Quadcopters [56.37274861303324]
本稿では,クワッドコプターのための適応型ニアホバー位置制御器を提案する。
これは、非常に異なる質量、大きさ、運動定数を持つクワッドコプターに展開することができる。
また、実行中に未知の障害に迅速に適応する。
論文 参考訳(メタデータ) (2022-09-19T17:55:05Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Vision-based Drone Flocking in Outdoor Environments [9.184987303791292]
このレターでは、ドローン群に対する視覚に基づく検出と追跡アルゴリズムを提案する。
我々は畳み込みニューラルネットワークを用いてクワッドコプターの近傍のエージェントをリアルタイムで検出・ローカライズする。
背景が乱雑で照明が難しいにもかかわらず、ドローンは屋外環境で安全に航行できることが示される。
論文 参考訳(メタデータ) (2020-12-02T14:44:40Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。