論文の概要: Explainable Reinforcement Learning for Formula One Race Strategy
- arxiv url: http://arxiv.org/abs/2501.04068v1
- Date: Tue, 07 Jan 2025 13:54:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:56:42.228063
- Title: Explainable Reinforcement Learning for Formula One Race Strategy
- Title(参考訳): フォーミュラ1レース戦略のための説明可能な強化学習
- Authors: Devin Thomas, Junqi Jiang, Avinash Kori, Aaron Russo, Steffen Winkler, Stuart Sale, Joseph McMillan, Francesco Belardinelli, Antonio Rago,
- Abstract要約: シミュレーションにおけるレース戦略を制御するための強化学習モデルRSRLを導入する。
RSRLはテストレースの2023年のバーレーングランプリでP5.33の平均フィニッシュポジションを達成した。
次に、一般的な研究で、1つのトラックや複数のトラックのパフォーマンスが、トレーニングによって優先されるかを実証する。
- 参考スコア(独自算出の注目度): 8.158206540652179
- License:
- Abstract: In Formula One, teams compete to develop their cars and achieve the highest possible finishing position in each race. During a race, however, teams are unable to alter the car, so they must improve their cars' finishing positions via race strategy, i.e. optimising their selection of which tyre compounds to put on the car and when to do so. In this work, we introduce a reinforcement learning model, RSRL (Race Strategy Reinforcement Learning), to control race strategies in simulations, offering a faster alternative to the industry standard of hard-coded and Monte Carlo-based race strategies. Controlling cars with a pace equating to an expected finishing position of P5.5 (where P1 represents first place and P20 is last place), RSRL achieves an average finishing position of P5.33 on our test race, the 2023 Bahrain Grand Prix, outperforming the best baseline of P5.63. We then demonstrate, in a generalisability study, how performance for one track or multiple tracks can be prioritised via training. Further, we supplement model predictions with feature importance, decision tree-based surrogate models, and decision tree counterfactuals towards improving user trust in the model. Finally, we provide illustrations which exemplify our approach in real-world situations, drawing parallels between simulations and reality.
- Abstract(参考訳): フォーミュラ1では、チームは自走車の開発を競い、各レースで最高のフィニッシュポジションを獲得する。
しかし、レース中は、チームは車を変更することができないため、レース戦略、すなわち、どのタイヤ化合物を車に乗せるべきかの選択を最適化し、いつそれを行うかによって、車のフィニッシュポジションを改善する必要がある。
本研究では,RSRL(Race Strategy Reinforcement Learning)という強化学習モデルを導入し,シミュレーションにおけるレース戦略を制御し,ハードコードおよびモンテカルロをベースとしたレース戦略の業界標準の高速な代替手段を提供する。
RSRLは、P5.5(P1が1位、P20が最終位)の期待フィニッシュポジションに等しいペースで車両を制御し、テストレースの2023年バーレーングランプリにおいてP5.33の平均フィニッシュポジションを達成し、P5.63の最高ベースラインを上回った。
次に、一般的な研究で、1つのトラックや複数のトラックのパフォーマンスが、トレーニングによって優先されるかを実証する。
さらに,特徴的重要性のあるモデル予測,決定木に基づく代理モデル,決定木に対する反事実を補足し,モデルのユーザ信頼の向上を図る。
最後に、実世界の状況における我々のアプローチを例示するイラストを提供し、シミュレーションと現実の並行性を描いている。
関連論文リスト
- Explainable Time Series Prediction of Tyre Energy in Formula One Race Strategy [2.6667819481058928]
フォーミュラ1(F1)のレース戦略は、高圧で速いペースで行われる。
レース戦略の中核となる2つの決定は、いつピットストップし、どのタイヤ化合物を選ぶかである。
本研究では,メルセデス・AMGPETRONAS F1チームの歴史的なレースデータを用いて,ディープラーニングモデルを訓練した。
論文 参考訳(メタデータ) (2025-01-07T12:38:48Z) - MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Valeo4Cast: A Modular Approach to End-to-End Forecasting [93.86257326005726]
我々のソリューションはArgoverse 2 end-to-end Forecasting Challengeで63.82 mAPfでランクインした。
私たちは、知覚から予測までエンドツーエンドのトレーニングを通じて、このタスクに取り組む現在のトレンドから離れ、代わりにモジュラーアプローチを使用します。
私たちは、昨年の優勝者より+17.1ポイント、今年の優勝者より+13.3ポイント、予測結果を+17.1ポイント上回る。
論文 参考訳(メタデータ) (2024-06-12T11:50:51Z) - er.autopilot 1.0: The Full Autonomous Stack for Oval Racing at High
Speeds [61.91756903900903]
インディ・オートノラティカル・チャレンジ (IAC) は、オープンホイールのレースカー上で独立して開発されたソフトウェアを使用して、前例のないスピードとヘッド・ツー・ヘッドのシナリオで競う9つの自律レースチームを集めた。
本稿では,チームTII EuroRacing (TII-ER) が使用するソフトウェアアーキテクチャについて述べる。静的障害物を避け,アクティブオーバーテイクを行い,75m/s (270 km/h) 以上の速度に達するために必要なモジュールをすべて網羅する。
総合的な結果と各モジュールのパフォーマンス、および、チームがそれぞれ2番目と3番目を置く楕円軌道上の競技の最初の2つのイベントで学んだ教訓について説明する。
論文 参考訳(メタデータ) (2023-10-27T12:52:34Z) - Mastering Nordschleife -- A comprehensive race simulation for AI
strategy decision-making in motorsports [0.0]
本稿では,GTレースに適した新しいシミュレーションモデルを開発する。
シミュレーションをOpenAIのGymフレームワークに統合することにより、強化学習環境を作成し、エージェントを訓練する。
本論文は,レースシミュレーションにおける強化学習の広範な適用に寄与し,FIAフォーミュラ1を超えるレース戦略最適化の可能性の解放に寄与する。
論文 参考訳(メタデータ) (2023-06-28T10:39:31Z) - Vehicle Dynamics Modeling for Autonomous Racing Using Gaussian Processes [0.0]
本稿では,自動走行における車両動力学の近似におけるGPモデルの適用性について,最も詳細な解析を行った。
人気のあるF1TENTHレーシングプラットフォームのための動的および拡張キネマティックモデルを構築した。
論文 参考訳(メタデータ) (2023-06-06T04:53:06Z) - Motion Planning and Control for Multi Vehicle Autonomous Racing at High
Speeds [100.61456258283245]
本稿では,自律走行のための多層移動計画と制御アーキテクチャを提案する。
提案手法はダララのAV-21レースカーに適用され、楕円形のレーストラックで25$m/s2$まで加速試験された。
論文 参考訳(メタデータ) (2022-07-22T15:16:54Z) - An Adaptive Human Driver Model for Realistic Race Car Simulations [25.67586167621258]
我々は、レースドライバーの振る舞いをよりよく理解し、模倣学習に基づく適応的な人間のレースドライバーモデルを導入する。
我々のフレームワークは、ほぼ人間に近い性能で、目に見えないレーストラック上で、現実的な走行線分布を作成できることを示します。
論文 参考訳(メタデータ) (2022-03-03T18:39:50Z) - Learning to Run with Potential-Based Reward Shaping and Demonstrations
from Video Data [70.540936204654]
「走ることを学ぶ」競技は、二本足のヒューマノイドボディを最高速度で模擬レースコースで走るように訓練することであった。
すべての提出者は、強化学習(RL)へのタブラララサアプローチを採り入れ、比較的速いが最適な実行動作は得られなかった。
本研究では,人間のランニング映像から得られるデータを用いて,ヒューマノイド学習エージェントの報酬を形成できることを示す。
論文 参考訳(メタデータ) (2020-12-16T09:46:58Z) - Learning from Simulation, Racing in Reality [126.56346065780895]
ミニチュアレースカープラットフォーム上で自律的なレースを行うための強化学習ベースのソリューションを提案する。
シミュレーションで純粋に訓練されたポリシーは、実際のロボットのセットアップにうまく移行できることを示す。
論文 参考訳(メタデータ) (2020-11-26T14:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。