論文の概要: SPIRAL: Self-Play Incremental Racing Algorithm for Learning in Multi-Drone Competitions
- arxiv url: http://arxiv.org/abs/2510.22568v1
- Date: Sun, 26 Oct 2025 07:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.537891
- Title: SPIRAL: Self-Play Incremental Racing Algorithm for Learning in Multi-Drone Competitions
- Title(参考訳): SPIRAL:マルチDroneコンペティションにおける学習のためのセルフプレイインクリメンタルレーシングアルゴリズム
- Authors: Onur Akgün,
- Abstract要約: 本稿では,マルチエージェントレースにおける自律ドローンのトレーニング手法であるSPIRALを紹介する。
SPIRALは、複雑なレースの振る舞いを漸進的に培養するセルフプレイ機構を特有に採用している。
本手法は汎用性のために設計されており,最先端のDeep Reinforcement Learning (DRL)アルゴリズムと統合可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces SPIRAL (Self-Play Incremental Racing Algorithm for Learning), a novel approach for training autonomous drones in multi-agent racing competitions. SPIRAL distinctively employs a self-play mechanism to incrementally cultivate complex racing behaviors within a challenging, dynamic environment. Through this self-play core, drones continuously compete against increasingly proficient versions of themselves, naturally escalating the difficulty of competitive interactions. This progressive learning journey guides agents from mastering fundamental flight control to executing sophisticated cooperative multi-drone racing strategies. Our method is designed for versatility, allowing integration with any state-of-the-art Deep Reinforcement Learning (DRL) algorithms within its self-play framework. Simulations demonstrate the significant advantages of SPIRAL and benchmark the performance of various DRL algorithms operating within it. Consequently, we contribute a versatile, scalable, and self-improving learning framework to the field of autonomous drone racing. SPIRAL's capacity to autonomously generate appropriate and escalating challenges through its self-play dynamic offers a promising direction for developing robust and adaptive racing strategies in multi-agent environments. This research opens new avenues for enhancing the performance and reliability of autonomous racing drones in increasingly complex and competitive scenarios.
- Abstract(参考訳): 本稿では,SPIRAL(Self-Play Incremental Racing Algorithm for Learning)を紹介する。
SPIRALは、挑戦的で動的な環境の中で複雑なレースの振る舞いを漸進的に育むための、セルフプレイメカニズムを特有に採用している。
このセルフプレイのコアを通じて、ドローンは、競争の難しさを自然にエスカレートする。
このプログレッシブ・ラーニング・ジャーニーは、エージェントが基本的な飛行制御を習得することから、高度な協調型多翼レース戦略の実行へと導く。
提案手法は汎用性のために設計されており,最先端のDeep Reinforcement Learning (DRL) アルゴリズムを自己学習フレームワークに組み込むことができる。
シミュレーションは、SPIRALの重要な利点を示し、その内部で動作している様々なDRLアルゴリズムのパフォーマンスをベンチマークする。
その結果、自律型ドローンレースの分野において、多目的でスケーラブルで自己改善型の学習フレームワークを貢献する。
SPIRALが自律的に適切なエスカレートする能力は、マルチエージェント環境で堅牢で適応的なレーシング戦略を開発する上で有望な方向を提供する。
この研究は、ますます複雑で競争の激しいシナリオにおいて、自律走行ドローンの性能と信頼性を高めるための新たな道を開く。
関連論文リスト
- Curriculum-Based Iterative Self-Play for Scalable Multi-Drone Racing [0.0]
CRUISEはマルチドローンレースのための強化学習フレームワークである。
プログレッシブな難易度カリキュラムと効率的なセルフプレイ機構を組み合わせることで、堅牢な競争行動を促進する。
プランナーの平均レース速度を2倍近く達成し、高い成功率を維持し、エージェント密度が増加するにつれて堅牢なスケーラビリティを示す。
論文 参考訳(メタデータ) (2025-10-26T08:03:06Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - Self-Driving Car Racing: Application of Deep Reinforcement Learning [0.0]
このプロジェクトの目的は、OpenAI Gymnasium CarRacing環境でシミュレーションカーを効率的に駆動するAIエージェントを開発することである。
本稿では,DQN(Deep Q-Network)やPPO(Proximal Policy Optimization)などのRLアルゴリズムや,トランスファーラーニングとリカレントニューラルネットワーク(RNN)を組み込んだ新たな適応手法について検討する。
論文 参考訳(メタデータ) (2024-10-30T07:32:25Z) - End-to-end Lidar-Driven Reinforcement Learning for Autonomous Racing [0.0]
強化学習(Reinforcement Learning, RL)は、自動化とロボット工学の領域において、変革的なアプローチとして登場した。
本研究は、フィードフォワード生ライダーと速度データのみを用いて、レース環境をナビゲートするRLエージェントを開発し、訓練する。
エージェントのパフォーマンスは、実世界のレースシナリオで実験的に評価される。
論文 参考訳(メタデータ) (2023-09-01T07:03:05Z) - Evaluating the Robustness of Deep Reinforcement Learning for Autonomous
Policies in a Multi-agent Urban Driving Environment [3.8073142980733]
視覚に基づく自律運転における深層強化学習の比較のためのベンチマークフレームワークを提案する。
この実験は、視覚のみの高忠実度都市運転模擬環境で実施する。
その結果, 深層強化学習アルゴリズムのいくつかは, シングルエージェントとマルチエージェントのシナリオで一貫した性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2021-12-22T15:14:50Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Autonomous Overtaking in Gran Turismo Sport Using Curriculum
Reinforcement Learning [39.757652701917166]
本研究では,自律オーバーテイク問題に対する新たな学習手法を提案する。
カーレースシミュレーターであるGran Turismo Sportによるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-26T18:06:50Z) - Learning Agile Locomotion via Adversarial Training [59.03007947334165]
本稿では,四足歩行ロボット(主人公)が他のロボット(敵)を追いかけるのを学習し,後者が逃げることを学習するマルチエージェント学習システムを提案する。
この敵対的なトレーニングプロセスは、アジャイルの振る舞いを促進するだけでなく、退屈な環境設計の努力を効果的に軽減します。
1つの敵のみを使用した以前の作品とは対照的に、異なる逃走戦略を専門とする敵のアンサンブルを訓練することは、主人公がアジリティを習得するために不可欠である。
論文 参考訳(メタデータ) (2020-08-03T01:20:37Z) - AirSim Drone Racing Lab [56.68291351736057]
AirSim Drone Racing Labは、この領域で機械学習研究を可能にするシミュレーションフレームワークである。
本フレームワークは,複数の写真リアル環境下でのレーストラック生成を可能にする。
当社のフレームワークを使用して,NeurIPS 2019で,シミュレーションベースのドローンレースコンペティションを開催しました。
論文 参考訳(メタデータ) (2020-03-12T08:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。