論文の概要: Churn prediction in online gambling
- arxiv url: http://arxiv.org/abs/2201.02463v1
- Date: Fri, 7 Jan 2022 14:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 16:46:31.393490
- Title: Churn prediction in online gambling
- Title(参考訳): オンラインギャンブルにおけるチャーン予測
- Authors: Florian Merchie and Damien Ernst
- Abstract要約: この研究は、オンラインギャンブルの文脈におけるチャーン予測の問題を形式化し、ドメインに寄与する。
本稿では,繰り返しニューラルネットワークに基づくアルゴリズムによる解法を提案する。
このアルゴリズムは、時系列形式のオンラインギャンブルデータを用いてテストされる。
- 参考スコア(独自算出の注目度): 4.523089386111081
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In business retention, churn prevention has always been a major concern. This
work contributes to this domain by formalizing the problem of churn prediction
in the context of online gambling as a binary classification task. We also
propose an algorithmic answer to this problem based on recurrent neural
network. This algorithm is tested with online gambling data that have the form
of time series, which can be efficiently processed by recurrent neural
networks. To evaluate the performances of the trained models, standard machine
learning metrics were used, such as accuracy, precision and recall. For this
problem in particular, the conducted experiments allowed to assess that the
choice of a specific architecture depends on the metric which is given the
greatest importance. Architectures using nBRC favour precision, those using
LSTM give better recall, while GRU-based architectures allow a higher accuracy
and balance two other metrics. Moreover, further experiments showed that using
only the more recent time-series histories to train the networks decreases the
quality of the results. We also study the performances of models learned at a
specific instant $t$, at other times $t^{\prime} > t$. The results show that
the performances of the models learned at time $t$ remain good at the following
instants $t^{\prime} > t$, suggesting that there is no need to refresh the
models at a high rate. However, the performances of the models were subject to
noticeable variance due to one-off events impacting the data.
- Abstract(参考訳): ビジネスの維持においては、常に混乱防止が大きな関心事となっている。
この研究は、オンラインギャンブルの文脈におけるチャーン予測の問題をバイナリ分類タスクとして定式化することで、この領域に寄与する。
また、この問題に対する繰り返しニューラルネットワークに基づくアルゴリズム的解法を提案する。
このアルゴリズムは、時系列の形式を持つオンラインギャンブルデータを用いてテストされ、リカレントニューラルネットワークによって効率的に処理される。
トレーニングされたモデルの性能を評価するために、精度、精度、リコールなどの標準的な機械学習メトリクスが使用された。
特にこの問題に対して、実施した実験では、特定のアーキテクチャの選択が最も重要となるメトリクスに依存することを評価することができた。
nBRCを使用するアーキテクチャは精度がよいが、LSTMを使用するアーキテクチャはリコールを良くし、GRUベースのアーキテクチャはより高い精度と2つのメトリクスのバランスをとることができる。
さらに,最近の時系列履歴のみを用いてネットワークをトレーニングすることで,結果の品質が低下することを示した。
また、特定のインスタント$t$で学習したモデルのパフォーマンスを、別の時間に$t^{\prime} > t$で調べました。
その結果、t$で学習したモデルのパフォーマンスは、以下の瞬間に引き続き良好であることが示され、高いレートでモデルのリフレッシュは不要であることが示唆された。
しかし、モデルの性能は、データに影響を与える1回のイベントによって顕著なばらつきにさらされた。
関連論文リスト
- A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Model Architecture Adaption for Bayesian Neural Networks [9.978961706999833]
我々はBNNを精度と不確実性の両方に最適化する新しいネットワークアーキテクチャサーチ(NAS)を示す。
我々の実験では,探索されたモデルでは,最先端(ディープアンサンブル)と比較して,不確実性と精度が比較できる。
論文 参考訳(メタデータ) (2022-02-09T10:58:50Z) - KENN: Enhancing Deep Neural Networks by Leveraging Knowledge for Time
Series Forecasting [6.652753636450873]
本稿では,時系列予測のための知識融合アーキテクチャである知識拡張ニューラルネットワーク(KENN)を提案する。
我々は、KENNがフレームワーク全体のデータ依存を減らすだけでなく、純粋に知識とデータ駆動ドメインによって生成されるものよりも優れた予測を生成することで、パフォーマンスを向上させることを示した。
論文 参考訳(メタデータ) (2022-02-08T14:47:47Z) - Deep Calibration of Interest Rates Model [0.0]
ディープラーニングの普及にもかかわらず、CIRやガウス家のような古典的なレートモデルはまだ広く使われている。
本稿では,ニューラルネットワークを用いたG2++モデルの5つのパラメータの校正を提案する。
論文 参考訳(メタデータ) (2021-10-28T14:08:45Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Lost in Pruning: The Effects of Pruning Neural Networks beyond Test
Accuracy [42.15969584135412]
ニューラルネットワークプルーニングは、現代のネットワークの推論コストを削減するために使用される一般的な技術です。
試験精度のみを終了条件で使用するだけで、結果のモデルが正常に機能するかどうかを評価します。
刈り取られたネットワークは、効果的に未刈り込みモデルに近似するが、刈り取られたネットワークがコンメンシュレートのパフォーマンスを達成できるプルー比はタスクによって大きく異なる。
論文 参考訳(メタデータ) (2021-03-04T13:22:16Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Adjusting for Autocorrelated Errors in Neural Networks for Time Series
Regression and Forecasting [10.659189276058948]
我々は,自己相関係数をモデルパラメータと組み合わせて学習し,自己相関誤差の補正を行う。
時系列回帰では,大規模な実験により,本手法がPrais-Winsten法より優れていることが示された。
実世界の幅広いデータセットを対象とした結果から,ほぼすべてのケースにおいて,本手法が性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T04:25:51Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。