論文の概要: Expandable Decision-Making States for Multi-Agent Deep Reinforcement Learning in Soccer Tactical Analysis
- arxiv url: http://arxiv.org/abs/2510.00480v1
- Date: Wed, 01 Oct 2025 04:01:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.363941
- Title: Expandable Decision-Making States for Multi-Agent Deep Reinforcement Learning in Soccer Tactical Analysis
- Title(参考訳): サッカー戦術解析における多エージェント深部強化学習のための拡張可能な意思決定状態
- Authors: Kenjiro Ide, Taiga Someya, Kohei Kawaguchi, Keisuke Fujii,
- Abstract要約: サッカーなどの侵入チームスポーツは、多くの選手が共有フィールドで相互作用するときに、高次元で強く結合された状態空間を作り出す。
従来のルールに基づく分析は直感的であるが、現代の予測機械学習モデルは明示的なエージェント表現なしでパターンマッチングを行うことが多い。
本稿では,関係変数による原位置と速度を増大させる意味的にリッチな状態表現である拡張可能意思決定状態(EDMS)を提案する。
- 参考スコア(独自算出の注目度): 6.8055385768376615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invasion team sports such as soccer produce a high-dimensional, strongly coupled state space as many players continuously interact on a shared field, challenging quantitative tactical analysis. Traditional rule-based analyses are intuitive, while modern predictive machine learning models often perform pattern-matching without explicit agent representations. The problem we address is how to build player-level agent models from data, whose learned values and policies are both tactically interpretable and robust across heterogeneous data sources. Here, we propose Expandable Decision-Making States (EDMS), a semantically enriched state representation that augments raw positions and velocities with relational variables (e.g., scoring of space, pass, and score), combined with an action-masking scheme that gives on-ball and off-ball agents distinct decision sets. Compared to prior work, EDMS maps learned value functions and action policies to human-interpretable tactical concepts (e.g., marking pressure, passing lanes, ball accessibility) instead of raw coordinate features, and aligns agent choices with the rules of play. In the experiments, EDMS with action masking consistently reduced both action-prediction loss and temporal-difference (TD) error compared to the baseline. Qualitative case studies and Q-value visualizations further indicate that EDMS highlights high-risk, high-reward tactical patterns (e.g., fast counterattacks and defensive breakthroughs). We also integrated our approach into an open-source library and demonstrated compatibility with multiple commercial and open datasets, enabling cross-provider evaluation and reproducible experiments.
- Abstract(参考訳): サッカーなどの侵入チームスポーツは、多くの選手が共有フィールドで継続的に交流し、定量的な戦術分析に挑戦するため、高次元で強く結合した状態空間を創出する。
従来のルールに基づく分析は直感的であるが、現代の予測機械学習モデルは明示的なエージェント表現なしでパターンマッチングを行うことが多い。
問題は、学習した値とポリシーが戦術的に解釈可能で、不均一なデータソース間で堅牢なデータからプレイヤーレベルのエージェントモデルを構築する方法です。
本稿では,実測位置と速度を関係変数(例えば,空間のスコア,パス,スコア)で拡張する意味的にリッチな状態表現であるEDMS(Expandable Decision-Making States)を提案する。
EDMSマップは、事前の作業と比較して、人間の解釈可能な戦術概念(例えば、マーキング・プレッシャー、パスレーン、ボールアクセシビリティ)に価値関数とアクションポリシーを学習し、エージェントの選択をプレイのルールに合わせる。
実験では,行動マスク付きEDMSは,行動予測損失と時間差誤差(TD)をベースラインと比較して連続的に低減した。
定性的なケーススタディとQ値の可視化は、EDMSが高リスクで高解像度の戦術パターン(例えば、高速の反撃や防御的なブレークスルー)を強調していることを示している。
また、我々のアプローチをオープンソースライブラリに統合し、複数の商用およびオープンデータセットとの互換性を示し、クロスプロデューサの評価と再現可能な実験を可能にしました。
関連論文リスト
- What-If Analysis of Large Language Models: Explore the Game World Using Proactive Thinking [50.72154186522052]
大規模言語モデル(LLM)は情報処理をリアクティブに行う能力に優れるが、仮説的未来を体系的に探索する能力に欠ける。
提案するWiA-LLMは,LLMにプロアクティブな思考能力を持たせる新しいパラダイムである。
複雑なマルチプレイヤーゲーム環境であるHonor of KingsにおけるWiA-LLMを検証する。
論文 参考訳(メタデータ) (2025-09-05T04:05:27Z) - Interpretable Low-Dimensional Modeling of Spatiotemporal Agent States for Decision Making in Football Tactics [0.9207076627649226]
ルールベースのモデルは専門家の知識と一致するが、すべての選手の状態を十分に考慮していない。
提案手法は,ボールホルダ電位受信機の両方に対する解釈可能な状態変数を定義する。
解析の結果,選手とボールの間の距離と選手の空間スコアが,パスを成功させる上で重要な要因であることが判明した。
論文 参考訳(メタデータ) (2025-06-20T02:37:52Z) - Sports-Traj: A Unified Trajectory Generation Model for Multi-Agent Movement in Sports [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを紹介する。
バスケットボールU,サッカーU,サッカーUの3つの実践的スポーツデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Auto-Encoding Bayesian Inverse Games [36.06617326128679]
ゲームの性質が不明な逆ゲーム問題を考える。
既存の最大推定手法は、未知のパラメータの点推定のみを提供する。
ベイズ的視点を採り、ゲームパラメータの後方分布を構成する。
この構造化されたVAEは、観測された相互作用のラベルのないデータセットから訓練することができる。
論文 参考訳(メタデータ) (2024-02-14T02:17:37Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Semantic Tracklets: An Object-Centric Representation for Visual
Multi-Agent Reinforcement Learning [126.57680291438128]
本研究では,不整合表現によるスケーラビリティの実現について検討する。
視覚多エージェント粒子環境(VMPE)と視覚多エージェントGFootball環境における意味トラックレット'の評価を行った。
特に,この手法は視覚データのみを用いて,GFootball環境における5人のプレイヤーの戦略を学習した最初の方法である。
論文 参考訳(メタデータ) (2021-08-06T22:19:09Z) - SMART: Simultaneous Multi-Agent Recurrent Trajectory Prediction [72.37440317774556]
本稿では,将来の軌道予測における2つの重要な課題に対処する手法を提案する。
エージェントの数に関係なく、トレーニングデータと予測と一定時間の推測の両方において、マルチモーダリティ。
論文 参考訳(メタデータ) (2020-07-26T08:17:10Z) - Learning to Model Opponent Learning [11.61673411387596]
マルチエージェント強化学習(MARL: Multi-Agent Reinforcement Learning)は、一組の共存エージェントが相互とその環境と相互作用する設定を考える。
これは、通常、収束が定常環境の仮定に依存する値関数ベースのアルゴリズムにとって大きな課題となる。
我々は、モデルポンポント学習(LeMOL)と呼ばれる、対戦者の学習力学をモデル化するための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2020-06-06T17:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。