論文の概要: XGBoost Learning of Dynamic Wager Placement for In-Play Betting on an
Agent-Based Model of a Sports Betting Exchange
- arxiv url: http://arxiv.org/abs/2401.06086v1
- Date: Thu, 11 Jan 2024 18:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 13:34:44.664496
- Title: XGBoost Learning of Dynamic Wager Placement for In-Play Betting on an
Agent-Based Model of a Sports Betting Exchange
- Title(参考訳): XGBoost Learning of Dynamic Wager Placement for In-Play Bentting on a Agent-based model of a Sports Bentting Exchange (特集 スポーツベッティング)
- Authors: Chawin Terawong and Dave Cliff
- Abstract要約: 本稿では,ブリストル賭け交換所(BBE)内での機械学習(ML)手法であるXGBoostを用いた最初の結果を示す。
我々は、XGBoost MLシステムに入力する合成データ生成装置として、BBE ABMとその最小限のベクターエージェントを使用する。
XGBoostは、BBEベクターエージェントによるより利益の高い賭けから学ぶことで、収益性の高い動的賭け戦略を発見する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present first results from the use of XGBoost, a highly effective machine
learning (ML) method, within the Bristol Betting Exchange (BBE), an open-source
agent-based model (ABM) designed to simulate a contemporary sports-betting
exchange with in-play betting during track-racing events such as horse races.
We use the BBE ABM and its array of minimally-simple bettor-agents as a
synthetic data generator which feeds into our XGBoost ML system, with the
intention that XGBoost discovers profitable dynamic betting strategies by
learning from the more profitable bets made by the BBE bettor-agents. After
this XGBoost training, which results in one or more decision trees, a
bettor-agent with a betting strategy determined by the XGBoost-learned decision
tree(s) is added to the BBE ABM and made to bet on a sequence of races under
various conditions and betting-market scenarios, with profitability serving as
the primary metric of comparison and evaluation. Our initial findings presented
here show that XGBoost trained in this way can indeed learn profitable betting
strategies, and can generalise to learn strategies that outperform each of the
set of strategies used for creation of the training data. To foster further
research and enhancements, the complete version of our extended BBE, including
the XGBoost integration, has been made freely available as an open-source
release on GitHub.
- Abstract(参考訳): 本稿では,競馬などのトラックレースイベントにおいて,現代のスポーツ・ベッティング交換を模擬したオープンソースのエージェントベースモデル(ABM)であるブリストル・ベッティング・エクスチェンジ(BBE)において,機械学習(ML)手法であるXGBoostを用いた最初の結果を示す。
我々はBBE ABMとその最小限のベクターエージェントの配列を、我々のXGBoost MLシステムに供給する合成データジェネレータとして使用し、BBEベクターエージェントのより利益率の高いベクターから学習することで、XGBoostが利益率の高い動的ベッティング戦略を発見することを意図している。
1つ以上の決定木を生じるこのxgboostトレーニングの後、xgboost主導決定木(s)によって決定される賭け戦略を持つベクターエージェントをbbe abmに追加し、様々な条件と賭け市場シナリオにおける一連のレースに賭け、利益性が比較評価の第一の基準となるようにした。
この方法でトレーニングされたXGBoostは、実際に収益性のあるベッティング戦略を学習でき、トレーニングデータの作成に使用する戦略のセットよりも優れた戦略を学習できるように一般化できることを示す。
さらなる研究と強化を促進するため、XGBoost統合を含む拡張されたBBEの完全なバージョンが、GitHubでオープンソースリリースとして無償公開されている。
関連論文リスト
- A Novel Decision Ensemble Framework: Customized Attention-BiLSTM and
XGBoost for Speculative Stock Price Forecasting [2.011511123338945]
本稿では、投機的株式Bitcoin-USD(BTC-USD)の日替価格を予測するための新しいフレームワーク、CAB-XDEを提案する。
CAB-XDEフレームワークは、カスタマイズされた双方向長短期メモリ(BiLSTM)とアテンション機構とXGBoostアルゴリズムを統合している。
提案されたCAB-XDEフレームワークは、Yahoo Financeから供給された不安定なBitcoin市場で実証的に検証されている。
論文 参考訳(メタデータ) (2024-01-05T17:13:30Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - MERMAIDE: Learning to Align Learners using Model-Based Meta-Learning [62.065503126104126]
本研究では,先見のつかない学習エージェントの報酬を効率よく効果的に介入し,望ましい結果を導き出す方法について検討する。
これはオークションや課税のような現実世界の多くの設定に関係しており、プリンシパルは学習行動や実際の人々の報酬を知らないかもしれない。
モデルに基づくメタ学習フレームワークであるMERMAIDEを導入し,配布外エージェントに迅速に適応できるプリンシパルを訓練する。
論文 参考訳(メタデータ) (2023-04-10T15:44:50Z) - Hierarchical Strategies for Cooperative Multi-Agent Reinforcement
Learning [0.0]
本稿では,新たな情報理論目標と軌道予測モデルを組み合わせた2段階階層アーキテクチャを提案する。
提案手法は,超硬度SCIIシナリオを解く最初のMARLアルゴリズムとして,我々の知る限り,この技術の新たな状態を確立するものであることを示す。
メソッドのビデオと簡単な概要は、https://sites.google.com/view/hier-strats-marl/home.comで公開されている。
論文 参考訳(メタデータ) (2022-12-14T18:27:58Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Exploiting Semantic Epsilon Greedy Exploration Strategy in Multi-Agent
Reinforcement Learning [6.615661844604509]
マルチエージェント強化学習(MARL)のための新しいアプローチQMIX(SEG)を提案する。
本手法では,QMIX値関数分解法を用いてエージェントごとのポリシーを訓練し,新しいセマンティック・エプシロン・グリーディ(SEG)探索戦略を提案する。
我々はSEGが原子行動よりも豊かな意味を持つ行動群を探索することで意味探索を促進することを論じる。
論文 参考訳(メタデータ) (2022-01-26T08:21:11Z) - BBE: Simulating the Microstructural Dynamics of an In-Play Betting
Exchange via Agent-Based Modelling [0.0]
Bristol Betting Exchange(BBE)は、現代的なオンラインスポーツ賭け交換の無料のオープンソースエージェントベースのシミュレーションモデルです。
BBEは、賭け交換で生じる問題に対するAIおよび機械学習(ML)技術の応用を研究する研究者のための共通のプラットフォーム、データソースおよび実験的テストベッドとして意図されています。
BBEは、スポーツイベントに賭けるための利益戦略の自動発見や改善のための大規模な高解像度データセットの生成を可能にする概念実証システムとして提供される。
論文 参考訳(メタデータ) (2021-05-18T06:52:08Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Capturing dynamics of post-earnings-announcement drift using genetic
algorithm-optimised supervised learning [3.42658286826597]
PEAD(Post-Earnings-Announcement Drift)は、最も研究されている株式市場の異常の一つである。
代わりに、機械学習ベースのアプローチを使用して、大規模なストックグループのデータを使用してPEADダイナミクスをキャプチャすることを目的としています。
論文 参考訳(メタデータ) (2020-09-07T13:27:06Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。