論文の概要: Continual Learning for Robust Gate Detection under Dynamic Lighting in Autonomous Drone Racing
- arxiv url: http://arxiv.org/abs/2405.01054v1
- Date: Thu, 2 May 2024 07:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 17:33:31.611498
- Title: Continual Learning for Robust Gate Detection under Dynamic Lighting in Autonomous Drone Racing
- Title(参考訳): 自律型ドローンレースにおける動的照明下におけるロバストゲート検出の連続学習
- Authors: Zhongzheng Qiao, Xuan Huy Pham, Savitha Ramasamy, Xudong Jiang, Erdal Kayacan, Andriy Sarabakha,
- Abstract要約: 本研究は,照明変動下でドローンレースゲートを検出するための認識手法を提案する。
提案手法は,連続学習機能を備えた軽量ニューラルネットワークバックボーンに頼っている。
- 参考スコア(独自算出の注目度): 27.18598697503772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In autonomous and mobile robotics, a principal challenge is resilient real-time environmental perception, particularly in situations characterized by unknown and dynamic elements, as exemplified in the context of autonomous drone racing. This study introduces a perception technique for detecting drone racing gates under illumination variations, which is common during high-speed drone flights. The proposed technique relies upon a lightweight neural network backbone augmented with capabilities for continual learning. The envisaged approach amalgamates predictions of the gates' positional coordinates, distance, and orientation, encapsulating them into a cohesive pose tuple. A comprehensive number of tests serve to underscore the efficacy of this approach in confronting diverse and challenging scenarios, specifically those involving variable lighting conditions. The proposed methodology exhibits notable robustness in the face of illumination variations, thereby substantiating its effectiveness.
- Abstract(参考訳): 自律型および移動型ロボティクスにおいて、主な課題は、自律型ドローンレースの文脈で例示されるように、特に未知および動的要素によって特徴づけられる状況において、リアルタイムな環境認識の回復である。
本研究は,高速飛行時によく見られる照明変化によるドローンレースゲートの検出手法を提案する。
提案手法は,連続学習機能を備えた軽量ニューラルネットワークバックボーンに頼っている。
想定されたアプローチアマルガメートは、ゲートの位置座標、距離、方向を予測し、それらを密集したポーズタプルにカプセル化する。
包括的なテストの数は、多様で困難なシナリオ、特に可変照明条件に関わるシナリオに直面するこのアプローチの有効性を評価するのに役立ちます。
提案手法は照明の変動に直面する顕著なロバスト性を示し,その有効性を実証する。
関連論文リスト
- LEAP:D - A Novel Prompt-based Approach for Domain-Generalized Aerial Object Detection [2.1233286062376497]
学習可能なプロンプトを用いた革新的な視覚言語アプローチを提案する。
この手動プロンプトからのシフトは、ドメイン固有の知識干渉を減らすことを目的としている。
トレーニングプロセスを一段階のアプローチで合理化し、学習可能なプロンプトとモデルトレーニングを同時に更新する。
論文 参考訳(メタデータ) (2024-11-14T04:39:10Z) - Biologically Inspired Swarm Dynamic Target Tracking and Obstacle Avoidance [0.0]
本研究では、軍用分散ドローン群を用いた動的目標追跡のためのAI駆動飛行コンピュータを提案する。
コントローラはファジィインタフェース、素早い適応、予測能力、マルチエージェント問題解決を可能にするニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2024-10-15T03:47:09Z) - SpaceYOLO: A Human-Inspired Model for Real-time, On-board Spacecraft
Feature Detection [0.0]
衝突の危険箇所を特定するためには、リアルタイムで自動的な宇宙船の特徴認識が必要である。
新しいアルゴリズムSpaceYOLOは、最先端のオブジェクト検出器YOLOv5を、人間にインスパイアされた意思決定プロセスに基づいて、別個のニューラルネットワークで融合する。
SpaceYOLOの自律型宇宙船検出の性能は、ハードウェア・イン・ザ・ループ実験において通常のYOLOv5と比較される。
論文 参考訳(メタデータ) (2023-02-02T02:11:39Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Inverted Landing in a Small Aerial Robot via Deep Reinforcement Learning
for Triggering and Control of Rotational Maneuvers [11.29285364660789]
高速で頑健な逆着陸は、特に機内でのセンシングと計算に完全に依存しながらも、空中ロボットにとって難しい偉業である。
これまでの研究では、一連の視覚的手がかりとキネマティックな動作の間に直接的な因果関係が特定され、小型の空中ロボットでこの困難なエアロバティックな操作を確実に実行することができた。
本研究では、まずDeep Reinforcement Learningと物理シミュレーションを用いて、頑健な逆着陸のための汎用的最適制御ポリシーを得る。
論文 参考訳(メタデータ) (2022-09-22T14:38:10Z) - VAE-Loco: Versatile Quadruped Locomotion by Learning a Disentangled Gait
Representation [78.92147339883137]
本研究では,特定の歩行を構成する主要姿勢位相を捕捉する潜在空間を学習することにより,制御器のロバスト性を高めることが重要であることを示す。
本研究では,ドライブ信号マップの特定の特性が,歩幅,歩幅,立位などの歩行パラメータに直接関係していることを示す。
生成モデルを使用することで、障害の検出と緩和が容易になり、汎用的で堅牢な計画フレームワークを提供する。
論文 参考訳(メタデータ) (2022-05-02T19:49:53Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Next Steps: Learning a Disentangled Gait Representation for Versatile
Quadruped Locomotion [69.87112582900363]
現在のプランナーは、ロボットが動いている間、キー歩行パラメータを連続的に変更することはできない。
本研究では、特定の歩行を構成する重要な姿勢位相を捉える潜在空間を学習することにより、この制限に対処する。
本研究では, 歩幅, 歩幅, 立位など, 歩行パラメータに直接対応した駆動信号マップの具体的特性を示す。
論文 参考訳(メタデータ) (2021-12-09T10:02:02Z) - Decentralized Reinforcement Learning for Multi-Target Search and
Detection by a Team of Drones [12.055303570215335]
対象の探索と検出は、カバレッジ、監視、探索、観測、追跡回避など、さまざまな決定問題を含む。
我々は,未知の領域における静的な目標のセットを特定するために,航空機群(ドローン)を協調させるマルチエージェント深部強化学習法(MADRL)を開発した。
論文 参考訳(メタデータ) (2021-03-17T09:04:47Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。