論文の概要: FinGAN: Generative Adversarial Network for Analytical Customer
Relationship Management in Banking and Insurance
- arxiv url: http://arxiv.org/abs/2201.11486v1
- Date: Thu, 27 Jan 2022 12:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 15:35:19.880504
- Title: FinGAN: Generative Adversarial Network for Analytical Customer
Relationship Management in Banking and Insurance
- Title(参考訳): fingan: 銀行と保険における顧客関係分析のための生成的広告ネットワーク
- Authors: Prateek Kate, Vadlamani Ravi and Akhilesh Gangwar
- Abstract要約: GAN(Generative Adversarial Network)を用いたマイノリティクラスの合成サンプルを生成するオーバーサンプリング手法を提案する。
第二に、一級支援ビゴーマシン(OCSVM)が取得したアンダーサンプリングされた多数派クラスデータと、GANがオーバーサンプリングした合成マイノリティクラスデータを増分することで、アンダーサンプリングとオーバーサンプリングの力を両立させる。
提案手法は,全データセットのROC曲線(AUC)に基づく領域において,従来の結果よりも優れていた。
- 参考スコア(独自算出の注目度): 4.241208172557663
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Churn prediction in credit cards, fraud detection in insurance, and loan
default prediction are important analytical customer relationship management
(ACRM) problems. Since frauds, churns and defaults happen less frequently, the
datasets for these problems turn out to be naturally highly unbalanced.
Consequently, all supervised machine learning classifiers tend to yield
substantial false-positive rates when trained on such unbalanced datasets. We
propose two ways of data balancing. In the first, we propose an oversampling
method to generate synthetic samples of minority class using Generative
Adversarial Network (GAN). We employ Vanilla GAN [1], Wasserstein GAN [2] and
CTGAN [3] separately to oversample the minority class samples. In order to
assess the efficacy of our proposed approach, we use a host of machine learning
classifiers, including Random Forest, Decision Tree, support vector machine
(SVM), and Logistic Regression on the data balanced by GANs. In the second
method, we introduce a hybrid method to handle data imbalance. In this second
way, we utilize the power of undersampling and over-sampling together by
augmenting the synthetic minority class data oversampled by GAN with the
undersampled majority class data obtained by one-class support vigor machine
(OCSVM) [4]. We combine both over-sampled data generated by GAN and the data
under-sampled by OCSVM [4] and pass the resultant data to classifiers. When we
compared our results to those of Farquad et al. [5], Sundarkumar, Ravi, and
Siddeshwar [6], our proposed methods outperform the previous results in terms
of the area under the ROC curve (AUC) on all datasets.
- Abstract(参考訳): クレジットカードにおけるチャーン予測、保険における不正検出、ローンデフォルト予測は分析顧客関係管理(acrm)の重要な問題である。
不正、不正、デフォルトが頻繁に発生するので、これらの問題のデータセットは自然に非常に不均衡である。
その結果、教師付き機械学習分類器は、そのようなバランスの取れていないデータセットでトレーニングすると、かなり偽陽性になる傾向にある。
我々はデータバランスの2つの方法を提案する。
まず,GAN(Generative Adversarial Network)を用いてマイノリティクラスの合成サンプルを生成するオーバーサンプリング手法を提案する。
我々はマイノリティクラスサンプルをオーバーサンプリングするために、Vanilla GAN [1], Wasserstein GAN [2], CTGAN [3] を別々に採用する。
提案手法の有効性を評価するために、ランダムフォレスト、決定木、サポートベクターマシン(SVM)、GANがバランスをとるデータに対するロジスティック回帰を含む機械学習分類器のホストを用いる。
第2の方法では,データ不均衡を扱うハイブリッド手法を提案する。
第2に,一級サポートビゴーマシン(OCSVM) [4] で得られたアンダーサンプリングされたマイノリティクラスデータと,GANによって過剰にサンプリングされたマイノリティクラスデータを増強することにより,アンダーサンプリングとオーバーサンプリングの力を両立させる。
我々は, GAN が生成した過剰サンプリングデータと OCSVM [4] がアンダーサンプリングしたデータを組み合わせて,結果のデータを分類器に渡す。
結果とFarquadらを比較した。
5],sundarkumar,ravi,siddeshwar [6],提案手法は,全データセットのroc曲線(auc)下の領域において,これまでの結果よりも優れていた。
関連論文リスト
- Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - IB-GAN: A Unified Approach for Multivariate Time Series Classification
under Class Imbalance [1.854931308524932]
GAN(Generative Adversarial Networks)による非パラメトリックデータ拡張は、有望なソリューションを提供する。
本稿では,データ拡張と分類を1段階のプロセスで結合する新しい手法であるImputation Balanced GAN(IB-GAN)を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:31:16Z) - SMOTified-GAN for class imbalanced pattern classification problems [0.41998444721319217]
本稿では,SMOTEとGANの相乗効果を持つ2相オーバーサンプリング手法を提案する。
実験の結果,様々なベンチマークデータセットにおいて,マイノリティクラス(es)のサンプル品質が向上していることが証明された。
論文 参考訳(メタデータ) (2021-08-06T06:14:05Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Conditional Wasserstein GAN-based Oversampling of Tabular Data for
Imbalanced Learning [10.051309746913512]
本稿では,条件付きWasserstein GANに基づくオーバーサンプリング手法を提案する。
実世界の7つのデータセット上で,標準的なオーバーサンプリング手法と不均衡なベースラインに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-08-20T20:33:56Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。