論文の概要: Professional Basketball Player Behavior Synthesis via Planning with
Diffusion
- arxiv url: http://arxiv.org/abs/2306.04090v2
- Date: Sat, 10 Jun 2023 03:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 23:07:36.127556
- Title: Professional Basketball Player Behavior Synthesis via Planning with
Diffusion
- Title(参考訳): 拡散を考慮したプロバスケットボール選手行動合成
- Authors: Xiusi Chen, Wei-Yao Wang, Ziniu Hu, Curtis Chou, Lam Hoang, Kun Jin,
Mingyan Liu, P. Jeffrey Brantingham, Wei Wang
- Abstract要約: 本稿では,プレーヤ意思決定を支援するPLAYBEST(PLAYer BEhaviorThesis)を紹介する。
我々は,NBA選手の運動追跡データから,複数エージェントの環境動態を学習する。
以上の結果から,このモデルは,効率的にプレーできる高品質なバスケットボールコースの創出に優れていたことが判明した。
- 参考スコア(独自算出の注目度): 24.82874096729939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamically planning in multi-agent systems has been explored to improve
decision-making in various domains. Professional basketball serves as a
compelling example of a dynamic spatio-temporal game, encompassing both
concealed strategic policies and decision-making. However, processing the
diverse on-court signals and navigating the vast space of potential actions and
outcomes makes it difficult for existing approaches to swiftly identify optimal
strategies in response to evolving circumstances. In this study, we first
formulate the sequential decision-making process as a conditional trajectory
generation process. We further introduce PLAYBEST (PLAYer BEhavior SynThesis),
a method for enhancing player decision-making. We extend the state-of-the-art
generative model, diffusion probabilistic model, to learn challenging
multi-agent environmental dynamics from historical National Basketball
Association (NBA) player motion tracking data. To incorporate data-driven
strategies, an auxiliary value function is trained using the play-by-play data
with corresponding rewards acting as the plan guidance. To accomplish
reward-guided trajectory generation, conditional sampling is introduced to
condition the diffusion model on the value function and conduct
classifier-guided sampling. We validate the effectiveness of PLAYBEST via
comprehensive simulation studies from real-world data, contrasting the
generated trajectories and play strategies with those employed by professional
basketball teams. Our results reveal that the model excels at generating
high-quality basketball trajectories that yield efficient plays, surpassing
conventional planning techniques in terms of adaptability, flexibility, and
overall performance. Moreover, the synthesized play strategies exhibit a
remarkable alignment with professional tactics, highlighting the model's
capacity to capture the intricate dynamics of basketball games.
- Abstract(参考訳): 多様な領域における意思決定を改善するために,マルチエージェントシステムの動的計画法が検討されている。
プロバスケットボールはダイナミックな時空間試合の魅力的な例であり、隠れた戦略方針と意思決定の両方を含んでいる。
しかし,様々なオンコート信号の処理や潜在的な行動や成果の膨大な空間のナビゲートは,進化する状況に対応する最適な戦略を迅速に特定することが困難である。
本研究ではまず,条件付き軌道生成プロセスとして逐次決定過程を定式化する。
さらに,プレーヤ意思決定の促進手法であるPLAYBEST(PLAYer BEhavior Synthesis)を紹介する。
我々は,NBA選手の運動追跡データから,最先端の生成モデルである拡散確率モデルを拡張して,マルチエージェント環境の動態を学習する。
データ駆動戦略を組み込むために、プランガイダンスとして対応する報酬と共にプレイバイプレイデータを用いて補助値関数を訓練する。
報酬誘導軌道生成を実現するため、値関数上の拡散モデルに条件付きサンプリングを導入し、分類器誘導サンプリングを行う。
実世界のデータから総合的なシミュレーション研究を行い, プロバスケットボールチームとプロバスケットボールチームの比較を行い, プレイベストの有効性を検証した。
提案手法は, 適応性, 柔軟性, 総合性能の観点から, 従来の計画手法を超越した, 高性能なバスケットボールコースの創出に優れていた。
さらに、合成されたプレイ戦略はプロの戦術と顕著な一致を示し、バスケットボールの試合の複雑なダイナミクスをとらえるモデルの能力を強調した。
関連論文リスト
- Automated Security Response through Online Learning with Adaptive
Conjectures [14.5729517924905]
我々はITインフラに対する自動セキュリティ対応について研究する。
我々は攻撃者とディフェンダーとの相互作用を部分的に観察された非静止ゲームとして定式化する。
論文 参考訳(メタデータ) (2024-02-19T20:06:15Z) - ShuttleSHAP: A Turn-Based Feature Attribution Approach for Analyzing
Forecasting Models in Badminton [52.21869064818728]
バドミントンにおけるプレイヤー戦術予測のための深層学習アプローチは、部分的にはラリープレイヤの相互作用に関する効果的な推論に起因する有望なパフォーマンスを示している。
本稿では,Shapley値の変量に基づいてバドミントンにおける予測モデルを解析するためのターンベース特徴属性手法であるShuttleSHAPを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:37:51Z) - Lucy-SKG: Learning to Play Rocket League Efficiently Using Deep
Reinforcement Learning [0.0]
本稿では,Rocket Leagueをサンプル効率でプレイする方法を学習した強化学習ベースのモデルであるLucy-SKGを紹介する。
コントリビューションには、報酬分析と可視化ライブラリの開発、新しいパラメータ化可能な報酬形状関数、補助的ニューラルネットワークなどがある。
論文 参考訳(メタデータ) (2023-05-25T07:33:17Z) - Towards Active Learning for Action Spotting in Association Football
Videos [59.84375958757395]
フットボールビデオの分析は困難であり、微妙で多様な時間的パターンを特定する必要がある。
現在のアルゴリズムは、限られた注釈付きデータから学ぶ際に大きな課題に直面している。
次にアノテートすべき最も情報に富んだビデオサンプルを選択する能動的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T11:50:41Z) - Who You Play Affects How You Play: Predicting Sports Performance Using
Graph Attention Networks With Temporal Convolution [29.478765505215538]
本研究では,スポーツにおける選手のパフォーマンスを予測するための新しい深層学習手法であるGATv2-GCNを提案する。
グラフアテンションネットワークを使用して、各プレイヤーが互いに支払うアテンションをキャプチャし、より正確なモデリングを可能にします。
実世界スポーツデータを用いたモデルの性能評価を行い,選手のパフォーマンス予測の有効性を実証した。
論文 参考訳(メタデータ) (2023-03-29T14:48:51Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Planning with Diffusion for Flexible Behavior Synthesis [125.24438991142573]
我々は、できるだけ多くの軌道最適化パイプラインをモデリング問題に折り畳むことがどう見えるか検討する。
我々の技術的アプローチの核心は、軌道を反復的にデノベーションすることで計画する拡散確率モデルにある。
論文 参考訳(メタデータ) (2022-05-20T07:02:03Z) - Dyna-T: Dyna-Q and Upper Confidence Bounds Applied to Trees [0.9137554315375919]
本稿ではDyna-Tという新しいアルゴリズムについて予備検討する。
強化学習(RL)では、計画エージェントは環境をモデルとして表現する。
より良いモデルを学ぶために、あるいは価値関数とポリシーを直接改善するために、経験を使うことができる。
論文 参考訳(メタデータ) (2022-01-12T15:06:30Z) - Learning to Play Imperfect-Information Games by Imitating an Oracle
Planner [77.67437357688316]
我々は、同時移動と大規模なステートアクションスペースでマルチプレイヤーの不完全な情報ゲームをプレイする学習を検討します。
我々のアプローチはモデルに基づく計画に基づいている。
我々は,Clash Royale と Pommerman のゲームにおいて,プランナーが効率的なプレイ戦略を発見することができることを示す。
論文 参考訳(メタデータ) (2020-12-22T17:29:57Z) - Multi-Modal Trajectory Prediction of NBA Players [14.735704310108101]
本稿では,プレイヤーのマルチモーダルな動作を捉える手法を提案する。
本手法は,マルチモーダル損失関数を用いて学習した複数の軌道とその確率を予測するLSTMアーキテクチャ上に構築される。
NBA追跡データ大きめの実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-18T11:35:44Z) - Forgetful Experience Replay in Hierarchical Reinforcement Learning from
Demonstrations [55.41644538483948]
本稿では,複雑な視覚環境において,エージェントが低品質な実演を行えるようにするためのアプローチの組み合わせを提案する。
提案した目標指向のリプレイバッファ構築により,エージェントはデモにおいて複雑な階層的タスクを解くためのサブゴールを自動的に強調することができる。
私たちのアルゴリズムに基づくこのソリューションは、有名なMineRLコンペティションのすべてのソリューションを破り、エージェントがMinecraft環境でダイヤモンドをマイニングすることを可能にする。
論文 参考訳(メタデータ) (2020-06-17T15:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。