論文の概要: Learning-based Multi-agent Race Strategies in Formula 1
- arxiv url: http://arxiv.org/abs/2602.23056v1
- Date: Thu, 26 Feb 2026 14:41:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.724031
- Title: Learning-based Multi-agent Race Strategies in Formula 1
- Title(参考訳): フォーミュラ1における学習型マルチエージェントレース戦略
- Authors: Giona Fieni, Joschua Wüthrich, Marc-Philippe Neumann, Christopher H. Onder,
- Abstract要約: 本稿では,マルチエージェントレース戦略最適化のための強化学習手法を提案する。
エージェントは、エネルギー管理、タイヤ劣化、空気力学的相互作用、ピットストップ決定のバランスをとることを学ぶ。
その結果, エージェントは対戦相手に応じてピットタイミング, タイヤ選択, エネルギー配分に適応することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Formula 1, race strategies are adapted according to evolving race conditions and competitors' actions. This paper proposes a reinforcement learning approach for multi-agent race strategy optimization. Agents learn to balance energy management, tire degradation, aerodynamic interaction, and pit-stop decisions. Building on a pre-trained single-agent policy, we introduce an interaction module that accounts for the behavior of competitors. The combination of the interaction module and a self-play training scheme generates competitive policies, and agents are ranked based on their relative performance. Results show that the agents adapt pit timing, tire selection, and energy allocation in response to opponents, achieving robust and consistent race performance. Because the framework relies only on information available during real races, it can support race strategists' decisions before and during races.
- Abstract(参考訳): フォーミュラ1では、レースの状況や競技者の行動に応じて、レース戦略が適応される。
本稿では,マルチエージェントレース戦略最適化のための強化学習手法を提案する。
エージェントは、エネルギー管理、タイヤ劣化、空気力学的相互作用、ピットストップ決定のバランスをとることを学ぶ。
事前訓練された単一エージェントポリシーに基づいて、競合者の振る舞いを考慮に入れた対話モジュールを導入する。
インタラクションモジュールとセルフプレイトレーニングスキームの組み合わせは、競合ポリシーを生成し、エージェントはその相対的なパフォーマンスに基づいてランク付けされる。
その結果, エージェントはピットタイミング, タイヤ選択, エネルギー配分を相手に適応し, 頑健で一貫したレース性能を実現することができた。
このフレームワークは実際のレースで利用可能な情報にのみ依存するため、レース前とレース中のレースストラテジストの決定をサポートすることができる。
関連論文リスト
- Agile Flight Emerges from Multi-Agent Competitive Racing [7.9331622838838305]
アジャイルの飛行と戦略は、強化学習で訓練されたエージェントから生まれます。
マルチエージェントコンペティションは、単一エージェントのプログレッシブベースの報酬でトレーニングされたポリシーよりも、現実世界に確実に移行するポリシーを得られることが分かっています。
論文 参考訳(メタデータ) (2025-12-12T18:48:50Z) - Fair Play in the Fast Lane: Integrating Sportsmanship into Autonomous Racing Systems [44.52724799426566]
本稿では,スポーツマンシップ(SPS)をレースに組み込むための2段階のゲーム理論フレームワークを提案する。
高レベルでは、モンテカルロ木探索(MCTS)を用いて最適な戦略を導出するスタックルバーグゲームを用いて、レース意図をモデル化する。
低レベルにおいては、車両の相互作用は一般化ナッシュ平衡問題(GNEP)として定式化され、全てのエージェントが軌道を最適化しながらスポーツマンシップの制約に従うことが保証される。
論文 参考訳(メタデータ) (2025-03-04T10:14:19Z) - Explainable Reinforcement Learning for Formula One Race Strategy [8.158206540652179]
シミュレーションにおけるレース戦略を制御するための強化学習モデルRSRLを導入する。
RSRLはテストレースの2023年のバーレーングランプリでP5.33の平均フィニッシュポジションを達成した。
次に、一般的な研究で、1つのトラックや複数のトラックのパフォーマンスが、トレーニングによって優先されるかを実証する。
論文 参考訳(メタデータ) (2025-01-07T13:54:19Z) - Mastering Nordschleife -- A comprehensive race simulation for AI
strategy decision-making in motorsports [0.0]
本稿では,GTレースに適した新しいシミュレーションモデルを開発する。
シミュレーションをOpenAIのGymフレームワークに統合することにより、強化学習環境を作成し、エージェントを訓練する。
本論文は,レースシミュレーションにおける強化学習の広範な適用に寄与し,FIAフォーミュラ1を超えるレース戦略最適化の可能性の解放に寄与する。
論文 参考訳(メタデータ) (2023-06-28T10:39:31Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Who Leads and Who Follows in Strategic Classification? [82.44386576129295]
戦略分類における役割の順序は、決定者とエージェントが互いの行動に適応する相対周波数によって決定される。
更新頻度を自由に選択できる意思決定者は,いずれの順番でスタックルバーグ均衡に収束する学習力学を誘導できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:48:46Z) - Moody Learners -- Explaining Competitive Behaviour of Reinforcement
Learning Agents [65.2200847818153]
競合シナリオでは、エージェントは動的環境を持つだけでなく、相手の行動に直接影響される。
エージェントのQ値の観察は通常、その振る舞いを説明する方法であるが、選択されたアクション間の時間的関係は示さない。
論文 参考訳(メタデータ) (2020-07-30T11:30:42Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。