論文の概要: Financial Fraud Detection Using Explainable AI and Stacking Ensemble Methods
- arxiv url: http://arxiv.org/abs/2505.10050v1
- Date: Thu, 15 May 2025 07:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.229099
- Title: Financial Fraud Detection Using Explainable AI and Stacking Ensemble Methods
- Title(参考訳): 説明可能なAIとスタッキングアンサンブル法を用いた財務的不正検出
- Authors: Fahad Almalki, Mehedi Masud,
- Abstract要約: 本稿では,XGBoost,LightGBM,CatBoostという,勾配促進モデルの積み重ねアンサンブルを組み合わせた不正検出フレームワークを提案する。
XAI技術は、モデルの決定の透明性と解釈可能性を高めるために使用される。
- 参考スコア(独自算出の注目度): 0.6642919568083927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional machine learning models often prioritize predictive accuracy, often at the expense of model transparency and interpretability. The lack of transparency makes it difficult for organizations to comply with regulatory requirements and gain stakeholders trust. In this research, we propose a fraud detection framework that combines a stacking ensemble of well-known gradient boosting models: XGBoost, LightGBM, and CatBoost. In addition, explainable artificial intelligence (XAI) techniques are used to enhance the transparency and interpretability of the model's decisions. We used SHAP (SHapley Additive Explanations) for feature selection to identify the most important features. Further efforts were made to explain the model's predictions using Local Interpretable Model-Agnostic Explanation (LIME), Partial Dependence Plots (PDP), and Permutation Feature Importance (PFI). The IEEE-CIS Fraud Detection dataset, which includes more than 590,000 real transaction records, was used to evaluate the proposed model. The model achieved a high performance with an accuracy of 99% and an AUC-ROC score of 0.99, outperforming several recent related approaches. These results indicate that combining high prediction accuracy with transparent interpretability is possible and could lead to a more ethical and trustworthy solution in financial fraud detection.
- Abstract(参考訳): 従来の機械学習モデルは、しばしばモデルの透明性と解釈容易性を犠牲にして、予測精度を優先する。
透明性の欠如は、規制要件に準拠し、ステークホルダーの信頼を得るのを難しくする。
本研究では,XGBoost, LightGBM, CatBoostという,よく知られた勾配促進モデルの重ね合わせを組み合わせた不正検出フレームワークを提案する。
さらに、モデル決定の透明性と解釈可能性を高めるために、説明可能な人工知能(XAI)技術が使用される。
機能選択にはSHAP(SHapley Additive Explanations)を使用しました。
局所解釈型モデル非依存記述(LIME)、部分依存プロット(PDP)、置換特徴重要度(PFI)を用いてモデルの予測を説明する。
590,000以上の実取引記録を含むIEEE-CISフラッド検出データセットを用いて,提案モデルの評価を行った。
このモデルは精度99%、AUC-ROCスコア0.99で高い性能を達成し、近年のいくつかのアプローチよりも優れていた。
これらの結果は、高い予測精度と透明な解釈可能性を組み合わせることは可能であり、金融詐欺検出においてより倫理的で信頼性の高い解決につながることを示唆している。
関連論文リスト
- A Gradient-Optimized TSK Fuzzy Framework for Explainable Phishing Detection [0.0]
既存のフィッシング検出手法は高い精度と説明可能性の両立に苦慮している。
勾配に基づく手法により最適化された1次高木・スゲノ・カンファジィ推論モデルに基づく新しいフィッシングURL検出システムを提案する。
論文 参考訳(メタデータ) (2025-04-25T18:31:05Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [48.15636223774418]
大きな言語モデル(LLM)は、不一致の自己認識のためにしばしば幻覚する。
既存のアプローチは、不確実性推定やクエリの拒否を通じて幻覚を緩和する。
高速かつ低速な推論システムを統合するための明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Generative Edge Detection with Stable Diffusion [52.870631376660924]
エッジ検出は一般的に、主に識別法によって対処されるピクセルレベルの分類問題と見なされる。
本稿では、事前学習した安定拡散モデルのポテンシャルを十分に活用して、GED(Generative Edge Detector)という新しい手法を提案する。
複数のデータセットに対して広範な実験を行い、競争性能を達成する。
論文 参考訳(メタデータ) (2024-10-04T01:52:23Z) - Explainable AI for Fraud Detection: An Attention-Based Ensemble of CNNs, GNNs, and A Confidence-Driven Gating Mechanism [5.486205584465161]
本研究は,通常の分類プロセスに2つの余分な層を追加することにより,CCF検出のための新たな積み重ねに基づくアプローチを提案する。
注意層では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)のソフトアウトプットを、依存重み付け平均化(DOWA)演算子を用いて組み合わせる。
信頼層では,どのアグリゲーション(DOWAまたはIOWA)でも,メタラーナーへのフィードの不確実性が低いかを選択する。
3つのデータセットに対する実験により,提案手法は高精度かつ堅牢な一般化を実現し,CCF検出に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-01T09:56:23Z) - On the Potential of Network-Based Features for Fraud Detection [3.0846824529023382]
本稿では、パーソナライズされたPageRank(PPR)アルゴリズムを用いて、詐欺の社会的ダイナミクスを捉える。
主な目的は、従来の特徴と不正検出モデルにおけるPPRの追加を比較することである。
その結果,PPRの統合はモデルの予測能力を向上し,ベースラインモデルを上回ることが示唆された。
論文 参考訳(メタデータ) (2024-02-14T13:20:09Z) - Explainable Fraud Detection with Deep Symbolic Classification [4.1205832766381985]
分類問題に対するDeep Symbolic Regressionフレームワークの拡張であるDeep Classificationを提案する。
関数は閉形式で簡潔な数学的表現であるため、モデルは1つの分類決定のレベルとモデルの決定過程の両方において本質的に説明可能である。
PaySimデータセットの評価は、最先端のモデルと競合する予測性能を示しながら、説明可能性の観点からそれらを上回っている。
論文 参考訳(メタデータ) (2023-12-01T13:50:55Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。