論文の概要: Forecasting Events in Soccer Matches Through Language
- arxiv url: http://arxiv.org/abs/2402.06820v1
- Date: Fri, 9 Feb 2024 23:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 19:08:56.091341
- Title: Forecasting Events in Soccer Matches Through Language
- Title(参考訳): 言語によるサッカーの試合のイベント予測
- Authors: Tiago Mendes-Neves, Lu\'is Meireles, Jo\~ao Mendes-Moreira
- Abstract要約: 本稿では,Large Language Models (LLM) が直面している問題と顕著に類似した課題である,サッカーの試合における次の事象を予測するためのアプローチを提案する。
本研究は,LLMの方法論に触発された新しい手法を提案する。
これらのモデルは、イベントを構成する変数の完全な連鎖を予測し、サッカー用の大型イベントモデル(LEM)の構築を著しく単純化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces an approach to predicting the next event in a soccer
match, a challenge bearing remarkable similarities to the problem faced by
Large Language Models (LLMs). Unlike other methods that severely limit event
dynamics in soccer, often abstracting from many variables or relying on a mix
of sequential models, our research proposes a novel technique inspired by the
methodologies used in LLMs. These models predict a complete chain of variables
that compose an event, significantly simplifying the construction of Large
Event Models (LEMs) for soccer. Utilizing deep learning on the publicly
available WyScout dataset, the proposed approach notably surpasses the
performance of previous LEM proposals in critical areas, such as the prediction
accuracy of the next event type. This paper highlights the utility of LEMs in
various applications, including betting and match analytics. Moreover, we show
that LEMs provide a simulation backbone on which many analytics pipelines can
be built, an approach opposite to the current specialized single-purpose
models. LEMs represent a pivotal advancement in soccer analytics, establishing
a foundational framework for multifaceted analytics pipelines through a
singular machine-learning model.
- Abstract(参考訳): 本稿では,大規模言語モデル(llm)が直面する問題と非常に類似した課題である,サッカーの試合における次のイベントを予測する手法を提案する。
サッカーにおけるイベントダイナミクスを厳しく制限したり、多くの変数から抽象化したり、複数のシーケンシャルモデルに依存する他の手法とは異なり、本研究はllmで使用される手法に着想を得た新しい手法を提案する。
これらのモデルは、イベントを構成する変数の完全な連鎖を予測し、サッカー用の大型イベントモデル(LEM)の構築を著しく単純化する。
WyScoutデータセットのディープラーニングを利用して、提案手法は、次のイベントタイプの予測精度など、重要な領域における以前のEM提案のパフォーマンスを特に上回る。
本稿では,ベッティングやマッチング分析など,各種アプリケーションにおけるLEMの有用性を強調した。
さらに、LEMは、多くの分析パイプラインを構築可能なシミュレーションバックボーンを提供しており、これは現在の特殊な単一目的モデルとは逆のアプローチであることを示す。
LEMはサッカー分析における重要な進歩であり、単一の機械学習モデルを通じて多面分析パイプラインの基礎となるフレームワークを確立する。
関連論文リスト
- P-MMEval: A Parallel Multilingual Multitask Benchmark for Consistent Evaluation of LLMs [84.24644520272835]
大きな言語モデル(LLM)は、翻訳、コード生成、推論といったタスクにまたがる様々な多言語機能を示す。
以前の評価では、その範囲を基本自然言語処理(NLP)や、独立した機能固有のタスクに制限することが多かった。
我々は、これらのベンチマークの有用性に関する以前の研究の監視に対処するため、大規模ベンチマークから利用可能な、合理的なベンチマークを選択するパイプラインを提案する。
本稿では,P-MMEvalを提案する。P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval。
論文 参考訳(メタデータ) (2024-11-14T01:29:36Z) - Utilizing Large Language Models for Event Deconstruction to Enhance Multimodal Aspect-Based Sentiment Analysis [2.1329326061804816]
本稿では,イベント分解のためのLarge Language Models (LLMs)を導入し,マルチモーダル・アスペクト・ベース・センチメント分析(MABSA-RL)のための強化学習フレームワークを提案する。
実験の結果,MABSA-RLは2つのベンチマークデータセットにおいて既存手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-18T03:40:45Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - The Emergence of Large Language Models in Static Analysis: A First Look
through Micro-Benchmarks [3.848607479075651]
我々は,Pythonプログラムのコールグラフ解析と型推論を改善する上で,現在のLarge Language Models (LLM) が果たす役割について検討する。
本研究により, LLMは型推論において有望な結果を示し, 従来の手法よりも高い精度を示したが, コールグラフ解析では限界が認められた。
論文 参考訳(メタデータ) (2024-02-27T16:53:53Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Estimating Player Performance in Different Contexts Using Fine-tuned Large Events Models [0.7373617024876725]
本稿では,Large Event Models (LEM) のサッカー解析への応用について紹介する。
LEMは、単語ではなく、後続のイベントの変数を予測する。
我々は、2017-18シーズンのプレミアリーグシーズンのWyScoutデータセットによる微調整LEMに焦点を当てている。
論文 参考訳(メタデータ) (2024-02-09T22:47:25Z) - Mixture-of-Linguistic-Experts Adapters for Improving and Interpreting
Pre-trained Language Models [22.977852629450346]
本稿では,言語モデルに言語構造を注入することで,2つの人気のある研究領域を組み合わせる手法を提案する。
本研究では,異なる言語構造をコードする並列アダプタモジュールを,Mixture-of-Linguistic-Expertsアーキテクチャを用いて組み合わせる。
実験の結果,本手法はパラメータ数に比較して,最先端のPEFT法より優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-24T23:29:06Z) - BLESS: Benchmarking Large Language Models on Sentence Simplification [55.461555829492866]
我々は、テキスト単純化(TS)タスク上で、最新の最先端の大規模言語モデル(LLM)のパフォーマンスベンチマークであるBLESSを紹介する。
異なるドメイン(Wikipedia、ニュース、医療)の3つのテストセットに対して、サイズ、アーキテクチャ、事前学習方法、アクセシビリティの異なる44のモデルを評価する。
評価の結果,最高のLSMはTSのトレーニングを受けていないにもかかわらず,最先端のTSベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-10-24T12:18:17Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。