論文の概要: Curriculum-Based Iterative Self-Play for Scalable Multi-Drone Racing
- arxiv url: http://arxiv.org/abs/2510.22570v1
- Date: Sun, 26 Oct 2025 08:03:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.538698
- Title: Curriculum-Based Iterative Self-Play for Scalable Multi-Drone Racing
- Title(参考訳): スケーラブルなマルチDroneレーシングのためのカリキュラムベース反復自己プレイ
- Authors: Onur Akgün,
- Abstract要約: CRUISEはマルチドローンレースのための強化学習フレームワークである。
プログレッシブな難易度カリキュラムと効率的なセルフプレイ機構を組み合わせることで、堅牢な競争行動を促進する。
プランナーの平均レース速度を2倍近く達成し、高い成功率を維持し、エージェント密度が増加するにつれて堅牢なスケーラビリティを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The coordination of multiple autonomous agents in high-speed, competitive environments represents a significant engineering challenge. This paper presents CRUISE (Curriculum-Based Iterative Self-Play for Scalable Multi-Drone Racing), a reinforcement learning framework designed to solve this challenge in the demanding domain of multi-drone racing. CRUISE overcomes key scalability limitations by synergistically combining a progressive difficulty curriculum with an efficient self-play mechanism to foster robust competitive behaviors. Validated in high-fidelity simulation with realistic quadrotor dynamics, the resulting policies significantly outperform both a standard reinforcement learning baseline and a state-of-the-art game-theoretic planner. CRUISE achieves nearly double the planner's mean racing speed, maintains high success rates, and demonstrates robust scalability as agent density increases. Ablation studies confirm that the curriculum structure is the critical component for this performance leap. By providing a scalable and effective training methodology, CRUISE advances the development of autonomous systems for dynamic, competitive tasks and serves as a blueprint for future real-world deployment.
- Abstract(参考訳): 高速で競争的な環境における複数の自律エージェントの協調は、重要なエンジニアリング上の課題である。
本稿では,この課題を解決するための強化学習フレームワークであるCRUISE(Curriculum-based Iterative Self-Play for Scalable Multi-Drone Racing)を提案する。
CRUISEは、進歩的な難易度カリキュラムと効率的なセルフプレイ機構を相乗的に組み合わせて、堅牢な競争行動を促進することで、鍵となるスケーラビリティの限界を克服する。
高忠実度シミュレーションと現実的な四重項力学で検証され、その結果、標準的な強化学習ベースラインと最先端のゲーム理論プランナーの両方よりも大幅に向上した。
CRUISEは、プランナーの平均レース速度をほぼ2倍にし、高い成功率を維持し、エージェント密度が増加するにつれて堅牢なスケーラビリティを示す。
アブレーション研究は、カリキュラム構造がこの性能飛躍の重要な要素であることを確認した。
スケーラブルで効果的なトレーニング方法論を提供することで、CRUISEは動的で競争力のあるタスクのための自律システムの開発を進め、将来の現実世界のデプロイメントの青写真として機能する。
関連論文リスト
- SPIRAL: Self-Play Incremental Racing Algorithm for Learning in Multi-Drone Competitions [0.0]
本稿では,マルチエージェントレースにおける自律ドローンのトレーニング手法であるSPIRALを紹介する。
SPIRALは、複雑なレースの振る舞いを漸進的に培養するセルフプレイ機構を特有に採用している。
本手法は汎用性のために設計されており,最先端のDeep Reinforcement Learning (DRL)アルゴリズムと統合可能である。
論文 参考訳(メタデータ) (2025-10-26T07:59:44Z) - Curriculum Learning With Counterfactual Group Relative Policy Advantage For Multi-Agent Reinforcement Learning [15.539607264374242]
マルチエージェント強化学習 (MARL) は, 協調的対人作業において高い性能を示した。
本稿では,自己適応型難易度調整機構を用いた動的カリキュラム学習フレームワークを提案する。
本手法はトレーニングの安定性と最終性能を両立させ,最先端の手法と競合する結果を得る。
論文 参考訳(メタデータ) (2025-06-09T08:38:18Z) - Digital Twin Synchronization: Bridging the Sim-RL Agent to a Real-Time Robotic Additive Manufacturing Control [2.5709786140685633]
この研究は、産業ロボット工学応用のためのソフトアクター・クライトとデジタルツインの統合を推進している。
システムアーキテクチャはUnityのシミュレーション環境とROS2を組み合わせて、シームレスなデジタル双対同期を実現する。
その結果、シミュレートされた環境と物理的環境の両方において、迅速な政策収束と堅牢なタスク実行が示された。
論文 参考訳(メタデータ) (2025-01-29T22:06:53Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - LoRA-IR: Taming Low-Rank Experts for Efficient All-in-One Image Restoration [62.3751291442432]
高速なオールインワン画像復元を実現するために,コンパクトな低ランクの専門家を動的に活用する,フレキシブルなフレームワークであるLoRA-IRを提案する。
LoRA-IRは、劣化誘導前訓練とパラメータ効率の良い微調整の2つの訓練段階で構成されている。
実験により、LoRA-IRは計算効率を維持しつつ、14のIRタスクと29のベンチマークでSOTA性能を達成することが示された。
論文 参考訳(メタデータ) (2024-10-20T13:00:24Z) - Scalable Supervisory Architecture for Autonomous Race Cars [0.0]
本稿では,自律走行用に設計されたスケーラブルなアーキテクチャを提案する。
モジュール性、さまざまな構成への適応性、パイプラインの並列実行を監視できることを強調している。
結果は、アーキテクチャのスケーラビリティと汎用性を確認し、競争力のある自律レースシステムを開発するための堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2024-08-27T13:19:17Z) - RILe: Reinforced Imitation Learning [60.63173816209543]
RILe(Reinforced Learning)は、模倣学習と逆強化学習の強みを組み合わせて、高密度報酬関数を効率的に学習するフレームワークである。
本フレームワークは, 直接模倣が複雑な動作を再現できないような高次元タスクにおいて, 高い性能のポリシーを生成する。
論文 参考訳(メタデータ) (2024-06-12T17:56:31Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - When Does Contrastive Learning Preserve Adversarial Robustness from
Pretraining to Finetuning? [99.4914671654374]
本稿では,新しい逆比較事前学習フレームワークAdvCLを提案する。
本稿では,AdvCLがモデル精度と微調整効率を損なうことなく,タスク間の堅牢性伝達性を向上できることを示す。
論文 参考訳(メタデータ) (2021-11-01T17:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。