論文の概要: Gaining Momentum: Uncovering Hidden Scoring Dynamics in Hockey through Deep Neural Sequencing and Causal Modeling
- arxiv url: http://arxiv.org/abs/2511.00615v1
- Date: Sat, 01 Nov 2025 16:36:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.863685
- Title: Gaining Momentum: Uncovering Hidden Scoring Dynamics in Hockey through Deep Neural Sequencing and Causal Modeling
- Title(参考訳): Gaining Momentum: ディープニューラルシークエンシングと因果モデリングによるホッケーにおける隠れスコーリングダイナミクスの発見
- Authors: Daniel Griffiths, Piper Moskow,
- Abstract要約: 本稿では,プロホッケーにおける攻撃モーメントの定量化と強化,および確率(予測目標,xG)を評価するための統一されたデータ駆動フレームワークを提案する。
我々のフレームワークは、コーチやアナリストにリアルタイムで行動可能な洞察を提供し、原則的かつ因果的な戦術最適化に向けてホッケー分析を進めます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a unified, data-driven framework for quantifying and enhancing offensive momentum and scoring likelihood (expected goals, xG) in professional hockey. Leveraging a Sportlogiq dataset of 541,000 NHL event records, our end-to-end pipeline comprises five stages: (1) interpretable momentum weighting of micro-events via logistic regression; (2) nonlinear xG estimation using gradient-boosted decision trees; (3) temporal sequence modeling with Long Short-Term Memory (LSTM) networks; (4) spatial formation discovery through principal component analysis (PCA) followed by K-Means clustering on standardized player coordinates; and (5) use of an X-Learner causal inference estimator to quantify the average treatment effect (ATE) of adopting the identified "optimal" event sequences and formations. We observe an ATE of 0.12 (95% CI: 0.05-0.17, p < 1e-50), corresponding to a 15% relative gain in scoring potential. These results demonstrate that strategically structured sequences and compact formations causally elevate offensive performance. Our framework delivers real-time, actionable insights for coaches and analysts, advancing hockey analytics toward principled, causally grounded tactical optimization.
- Abstract(参考訳): 本稿では,プロホッケーにおける攻撃モーメントの定量化と強化,および確率(予測目標,xG)を評価するための統一されたデータ駆動フレームワークを提案する。
541,000 NHLイベントレコードのSportlogiqデータセットを応用し,(1)ロジスティック回帰によるマイクロイベントの解釈可能な運動量重み付け,(2)勾配ブースト決定木を用いた非線形xG推定,(3)長短期記憶(LSTM)ネットワークを用いた時間的シーケンスモデリング,(4)主成分分析(PCA)による空間的生成探索,(4)標準プレイヤー座標を用いたK-Meansクラスタリング,(5)X-Learner因果推論推定器を用いて,同定された"最適"イベントシーケンスと生成を定量化する平均評価効果(ATE)を定量化する。
測定値は0.12(95% CI: 0.05-0.17, p < 1e-50)であり, 評価電位の相対利得は15%であった。
これらの結果は、戦略的に構造化された配列とコンパクトな構成が攻撃性能を因果的に高めることを示した。
我々のフレームワークは、コーチやアナリストにリアルタイムで行動可能な洞察を提供し、原則的かつ因果的な戦術最適化に向けてホッケー分析を進めます。
関連論文リスト
- The Coverage Principle: How Pre-Training Enables Post-Training [70.25788947586297]
予備学習が最終モデルの成功をどう形作るかを検討する。
下流の性能予測におけるカバレッジのパワーを説明するメカニズムを明らかにする。
論文 参考訳(メタデータ) (2025-10-16T17:53:50Z) - Apriel-1.5-15b-Thinker [19.19917266898226]
Apriel-1.5-15B-Thinkerは15ビリオンパラメータのオープンウェイトマルチモーダル推論モデルである。
厳格なスケールではなく、トレーニング設計によってフロンティアレベルのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-10-01T17:29:35Z) - RLP: Reinforcement as a Pretraining Objective [103.45068938532923]
我々は,情報駆動型強化事前訓練の目的として,強化学習のコアスピリットである探索を,事前訓練の最終段階に導くことを提案する。
このトレーニングの目的は、モデルが次に何が起こるかを予測する前に、自分自身で考えることを奨励し、事前学習の早い段階で独立した思考行動を教えることである。
特に、RLPは、通常のテキストにおける事前学習対象としての推論のための強化学習を再構築し、次のトーケン予測と有用な連鎖推論の出現の間のギャップを埋める。
論文 参考訳(メタデータ) (2025-09-26T17:53:54Z) - ReasonFlux-PRM: Trajectory-Aware PRMs for Long Chain-of-Thought Reasoning in LLMs [75.72672339168092]
本稿では,新しいトラジェクトリ対応PRMであるReasonFlux-PRMを紹介し,トラジェクトリ応答型推論トレースの評価を行う。
ReasonFlux-PRMはステップレベルとトラジェクトリレベルの両方の監視機能を備えており、構造化された連鎖データと整合した微粒な報酬割り当てを可能にする。
得られたReasonFlux-PRM-7Bは、教師付き微調整で平均12.1%、強化学習で4.5%、テスト時間スケーリングで6.3%向上した。
論文 参考訳(メタデータ) (2025-06-23T17:59:02Z) - Enhancing Predictive Accuracy in Tennis: Integrating Fuzzy Logic and CV-GRNN for Dynamic Match Outcome and Player Momentum Analysis [24.380112610220856]
本稿では,マルチレベルファジィ評価モデルとCV-GRNNモデルを組み合わせたゲーム予測手法を提案する。
まず、主成分分析を用いて重要な統計指標を特定し、次にウィンブルドンデータに基づく2層ファジィモデルを開発する。
CV-GRNNモデルを統計的に有意な15指標を用いて改良し,精度は86.64%,MSEは49.21%向上した。
論文 参考訳(メタデータ) (2025-03-25T15:53:49Z) - Beyond Scaling: Measuring and Predicting the Upper Bound of Knowledge Retention in Language Model Pre-Training [68.94373533768501]
我々は、知識保持をモデル化し、そのコーパスから事実情報を記憶するための事前学習言語モデルの能力を示し、学習前にそれを推定する原則的手法を導入する。
本稿では,知識周波数,知識特異度,モデルサイズを統合し,クローズドブック質問応答(QA)の精度を予測する情報理論予測器である,サイズ依存型相互情報(SMI)を提案する。
論文 参考訳(メタデータ) (2025-02-06T13:23:53Z) - In2Core: Leveraging Influence Functions for Coreset Selection in Instruction Finetuning of Large Language Models [37.45103473809928]
In2Coreアルゴリズムは,トレーニングモデルと評価サンプルの相関関係を解析し,コアセットを選択する。
LLMの微調整データにアルゴリズムを適用することで、トレーニングデータの50%で同様の性能を実現することができる。
論文 参考訳(メタデータ) (2024-08-07T05:48:05Z) - Lasso Ridge based XGBoost and Deep_LSTM Help Tennis Players Perform better [1.6016817180824583]
プレイヤーの性能を評価し,運動量効果を定量化するために,スライディングウインドウを用いたスコアリングモデルを開発した。
本稿では、LSTM_Deepモデルを用いて、ゲーム変動を定量化するための勝利率アルゴリズムの導出法を提案する。
本研究は,運動量動態とゲームゆらぎに着目し,スポーツ分析や選手のトレーニング戦略に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-05-11T15:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。