論文の概要: A High-Performance Customer Churn Prediction System based on
Self-Attention
- arxiv url: http://arxiv.org/abs/2206.01523v1
- Date: Fri, 3 Jun 2022 12:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:37:57.023988
- Title: A High-Performance Customer Churn Prediction System based on
Self-Attention
- Title(参考訳): 自己注意に基づく高性能顧客チャーン予測システム
- Authors: Haotian Wu
- Abstract要約: 本研究は,商業銀行顧客に関する公開データセットの実験を行う。
本稿では,自己注意強化型ニューラルネットワーク(HNNSAE)を提案する。
- 参考スコア(独自算出の注目度): 9.83578821760002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Customer churn prediction is a challenging domain of research that
contributes to customer retention strategy. The predictive performance of
existing machine learning models, which are often adopted by churn communities,
appear to be at a bottleneck, partly due to models' poor feature extraction
capability. Therefore, a novel algorithm, a hybrid neural network with
self-attention enhancement (HNNSAE), is proposed in this paper to improve the
efficiency of feature screening and feature extraction, consequently improving
the model's predictive performance. This model consists of three main blocks.
The first block is the entity embedding layer, which is employed to process the
categorical variables transformed into 0-1 code. The second block is the
feature extractor, which extracts the significant features through the
multi-head self-attention mechanism. In addition, to improve the feature
extraction effect, we stack the residual connection neural network on
multi-head self-attention modules. The third block is a classifier, which is a
three-layer multilayer perceptron. This work conducts experiments on publicly
available dataset related to commercial bank customers. The result demonstrates
that HNNSAE significantly outperforms the other Individual Machine Learning
(IML), Ensemble Machine Learning (EML), and Deep Learning (DL) methods tested
in this paper. Furthermore, we compare the performance of the feature extractor
proposed in this paper with that of other three feature extractors and find
that the method proposed in this paper significantly outperforms other methods.
In addition, four hypotheses about model prediction performance and overfitting
risk are tested on the publicly available dataset.
- Abstract(参考訳): 顧客チャーン予測は、顧客の維持戦略に寄与する研究の挑戦的な領域である。
チャーンコミュニティによってしばしば採用されている既存の機械学習モデルの予測性能は、モデルの特徴抽出能力の低さによってボトルネックになっているように見える。
そこで,本論文では,特徴抽出と特徴抽出の効率を向上し,モデルの予測性能を向上させるために,セルフアテンションエンハンスメント(hnnsae)を用いたハイブリッドニューラルネットワークを提案する。
このモデルは3つの主要ブロックから構成される。
最初のブロックはエンティティ埋め込み層で、0-1コードに変換されたカテゴリ変数を処理するために使用される。
第2のブロックは機能抽出器で、マルチヘッドのセルフアテンション機構を通じて重要な特徴を抽出する。
さらに,特徴抽出効果を向上させるために,マルチヘッド自己アテンションモジュール上に残差接続ニューラルネットワークを積み重ねる。
3つ目のブロックは3層多層パーセプトロンである分類器である。
本研究は,商業銀行顧客に関する公開データセットの実験を行う。
その結果、HNNSAEは、他の個人機械学習(IML)、エンサンブル機械学習(EML)、深層学習(DL)メソッドよりも大幅に優れていることが示された。
さらに,本論文で提案する特徴抽出器の性能を,他の3つの特徴抽出器の性能と比較し,本論文で提案する手法が他の手法を大きく上回ることを示す。
さらに、モデル予測性能と過適合リスクに関する4つの仮説を、公開データセット上でテストする。
関連論文リスト
- Few-Shot Medical Image Segmentation with Large Kernel Attention [5.630842216128902]
本稿では,包括的特徴表現能力を持つ数ショットの医用セグメンテーションモデルを提案する。
本モデルは,2経路特徴抽出器,アテンションモジュール,適応型プロトタイプ予測モジュール,マルチスケール予測融合モジュールの4つの重要なモジュールから構成される。
その結果,本手法が最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-07-27T02:28:30Z) - DiTMoS: Delving into Diverse Tiny-Model Selection on Microcontrollers [34.282971510732736]
我々は、セレクタ分類器アーキテクチャを備えた新しいDNNトレーニングおよび推論フレームワークであるDiTMoSを紹介する。
弱いモデルの合成は高い多様性を示すことができ、それらの結合は精度の上限を大幅に高めることができる。
我々は,Nucleo STM32F767ZIボード上にDiTMoSをデプロイし,人間の活動認識,キーワードスポッティング,感情認識のための時系列データセットに基づいて評価する。
論文 参考訳(メタデータ) (2024-03-14T02:11:38Z) - Learning Active Subspaces and Discovering Important Features with Gaussian Radial Basis Functions Neural Networks [0.0]
モデルの訓練が完了すると抽出できる精度行列のスペクトルに含まれる貴重な情報を示す。
回帰,分類,特徴選択タスクの数値実験を行った。
その結果,提案モデルが競合モデルに比べて魅力的な予測性能が得られるだけでなく,予測性能も向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-11T09:54:30Z) - Predictability of Machine Learning Algorithms and Related Feature
Extraction Techniques [0.0]
この論文は、行列分解に基づく予測システムを設計し、特定のデータセット上の特定のモデルの分類精度を予測する。
我々は,ランダムフォレスト,XGBoost,MultiLayer Perceptron(MLP)の3つの基本機械学習アルゴリズムの性能予測について検討した。
論文 参考訳(メタデータ) (2023-04-30T11:21:48Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Meta-Wrapper: Differentiable Wrapping Operator for User Interest
Selection in CTR Prediction [97.99938802797377]
クリックスルー率(CTR)予測は、ユーザーが商品をクリックする確率を予測することを目的としており、リコメンデーションシステムにおいてますます重要になっている。
近年,ユーザの行動からユーザの興味を自動的に抽出する深層学習モデルが大きな成功を収めている。
そこで我々は,メタラッパー(Meta-Wrapper)と呼ばれるラッパー手法の枠組みに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T03:28:15Z) - Understanding Interlocking Dynamics of Cooperative Rationalization [90.6863969334526]
選択的合理化(Selective rationalization)は、ニューラルネットワークの出力を予測するのに十分な入力の小さなサブセットを見つけることによって、複雑なニューラルネットワークの予測を説明する。
このような合理化パラダイムでは,モデルインターロックという大きな問題が浮かび上がっている。
A2Rと呼ばれる新しい合理化フレームワークを提案し、アーキテクチャに第3のコンポーネントを導入し、選択とは対照的にソフトアテンションによって駆動される予測器を提案する。
論文 参考訳(メタデータ) (2021-10-26T17:39:18Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。