論文の概要: Human-Like Goalkeeping in a Realistic Football Simulation: a Sample-Efficient Reinforcement Learning Approach
- arxiv url: http://arxiv.org/abs/2510.23216v1
- Date: Mon, 27 Oct 2025 11:06:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.531297
- Title: Human-Like Goalkeeping in a Realistic Football Simulation: a Sample-Efficient Reinforcement Learning Approach
- Title(参考訳): サッカーシミュレーションにおける人間のようなゴールキーピング--有効強化学習アプローチ
- Authors: Alessandro Sestini, Joakim Bergdahl, Jean-Philippe Barrette-LaPierre, Florian Fuchs, Brady Chen, Micheal Jones, Linus Gisslén,
- Abstract要約: 本稿では,産業環境下での訓練や微調整に適したサンプル効率のよい深層強化学習法を提案する。
EA SPORTS FC 25におけるゴールキーパーエージェントのトレーニングを,今日最も売れているサッカーシミュレーションの一つとして評価した。
我々のエージェントは、ゲームに組み込まれたAIを10%のボールセーブレートで上回ります。
- 参考スコア(独自算出の注目度): 34.76182181052248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While several high profile video games have served as testbeds for Deep Reinforcement Learning (DRL), this technique has rarely been employed by the game industry for crafting authentic AI behaviors. Previous research focuses on training super-human agents with large models, which is impractical for game studios with limited resources aiming for human-like agents. This paper proposes a sample-efficient DRL method tailored for training and fine-tuning agents in industrial settings such as the video game industry. Our method improves sample efficiency of value-based DRL by leveraging pre-collected data and increasing network plasticity. We evaluate our method training a goalkeeper agent in EA SPORTS FC 25, one of the best-selling football simulations today. Our agent outperforms the game's built-in AI by 10% in ball saving rate. Ablation studies show that our method trains agents 50% faster compared to standard DRL methods. Finally, qualitative evaluation from domain experts indicates that our approach creates more human-like gameplay compared to hand-crafted agents. As a testimony of the impact of the approach, the method is intended to replace the hand-crafted counterpart in next iterations of the series.
- Abstract(参考訳): いくつかのハイプロファイルなビデオゲームが深層強化学習(DRL)のテストベッドとして機能しているが、この技術が真のAI行動を作るためにゲーム業界に採用されることはめったにない。
従来の研究は、人間のようなエージェントをターゲットとする限られたリソースを持つゲームスタジオにとって現実的ではない、大きなモデルでスーパーヒューマンエージェントを訓練することに焦点を当てていた。
本稿では,ゲーム産業などの産業環境でのトレーニングや微調整を行うための,サンプル効率の高いDRL手法を提案する。
本手法は,事前収集したデータを活用し,ネットワーク可塑性を増大させることにより,値ベースDRLのサンプル効率を向上させる。
EA SPORTS FC 25におけるゴールキーパーエージェントのトレーニングを,今日最も売れているサッカーシミュレーションの一つとして評価した。
我々のエージェントは、ゲームに組み込まれたAIを10%のボールセーブレートで上回ります。
アブレーション試験の結果,本手法は標準DRL法に比べて50%高速であった。
最後に、ドメインの専門家による質的評価は、我々のアプローチが手作りのエージェントよりも人間的なゲームプレイを生み出していることを示している。
このアプローチの影響の証明として、この方法はシリーズの次のイテレーションで手作りのものを置き換えることを意図している。
関連論文リスト
- Reinforcing Competitive Multi-Agents for Playing 'So Long Sucker' [0.12234742322758417]
本稿では,マルチエージェント強化学習(MARL)の新たなベンチマークとして,戦略ゲームSo Long Sucker(SLS)について検討する。
グラフィカルなユーザインタフェースと強化学習アルゴリズムのベンチマークサポートを備えた,SLS用の初の公開計算フレームワークを紹介した。
論文 参考訳(メタデータ) (2024-11-17T12:38:13Z) - Scaling Offline Model-Based RL via Jointly-Optimized World-Action Model Pretraining [49.730897226510095]
我々は,60億のトークンデータを持つアタリゲーム上で事前訓練されたオフラインモデルベースRLエージェントであるJOWA: Jointly-Reinforceed World-Action Modelを紹介する。
われわれの最大のエージェントは、1億5000万のパラメータを持ち、10%のサブサンプルオフラインデータだけで事前トレーニングされたゲーム上での人間レベルのパフォーマンス78.9%で、既存の最先端の大規模なオフラインRLベースラインを31.6%上回っている。
論文 参考訳(メタデータ) (2024-10-01T10:25:03Z) - An Extremely Data-efficient and Generative LLM-based Reinforcement Learning Agent for Recommenders [1.0154385852423122]
強化学習(RL)アルゴリズムは、長期顧客満足度を最大化し、産業レコメンデーションシステムにおける短期的、筋電図的目標を回避するために有効である。
目標は、RLエージェントをトレーニングして購入報酬を最大化することである。
本報告では, 生成的軌跡を用いて訓練したRL剤についても検討した。
論文 参考訳(メタデータ) (2024-08-28T10:31:50Z) - Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - Minimax Exploiter: A Data Efficient Approach for Competitive Self-Play [12.754819077905061]
Minimax Exploiterは、敵の知識を活用するメインエージェントを利用するゲーム理論のアプローチである。
簡単なターンベースゲームやアーケード学習環境,現代的なビデオゲームであるFor Honorなど,さまざまな設定でアプローチを検証する。
論文 参考訳(メタデータ) (2023-11-28T19:34:40Z) - Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model [78.69367679848632]
深部RLエージェントの説明を導出するための軽量で効果的な手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
論文 参考訳(メタデータ) (2021-10-07T05:01:44Z) - Predicting Game Engagement and Difficulty Using AI Players [3.0501851690100277]
本稿では,人間のプレイヤの行動と経験を予測するための自動プレイテスト手法を提案する。
これまで,Deep Reinforcement Learningゲームプレイングエージェントがゲーム難易度とプレイヤーエンゲージメントの両方を予測することが実証されてきた。
モンテカルロ木探索(MCTS)によるDRL向上によるこのアプローチの改善
論文 参考訳(メタデータ) (2021-07-26T09:31:57Z) - Learning to Run with Potential-Based Reward Shaping and Demonstrations
from Video Data [70.540936204654]
「走ることを学ぶ」競技は、二本足のヒューマノイドボディを最高速度で模擬レースコースで走るように訓練することであった。
すべての提出者は、強化学習(RL)へのタブラララサアプローチを採り入れ、比較的速いが最適な実行動作は得られなかった。
本研究では,人間のランニング映像から得られるデータを用いて,ヒューマノイド学習エージェントの報酬を形成できることを示す。
論文 参考訳(メタデータ) (2020-12-16T09:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。