論文の概要: Explainable AI in Big Data Fraud Detection
- arxiv url: http://arxiv.org/abs/2512.16037v1
- Date: Wed, 17 Dec 2025 23:40:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.858314
- Title: Explainable AI in Big Data Fraud Detection
- Title(参考訳): ビッグデータフラッド検出における説明可能なAI
- Authors: Ayush Jain, Rahul Kulkarni, Siyi Lin,
- Abstract要約: 本稿では,不正検出とリスク管理のために,説明可能な人工知能(XAI)をビッグデータ分析パイプラインに統合する方法について検討する。
本稿では,分散ストレージシステム,ストリーミングプラットフォーム,高度な不正検出モデルなど,ビッグデータの特徴と主要な分析ツールについて概説する。
グラフおよび時間モデルのスケーラビリティ、リアルタイム処理、説明可能性に関連する重要な研究ギャップを同定する。
本論文は、スケーラブルなXAIにおけるオープンな研究の方向性、プライバシ対応の説明、および説明可能な不正検出システムのための標準化された評価手法で締めくくっている。
- 参考スコア(独自算出の注目度): 3.5429848204449694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Big Data has become central to modern applications in finance, insurance, and cybersecurity, enabling machine learning systems to perform large-scale risk assessments and fraud detection. However, the increasing dependence on automated analytics introduces important concerns about transparency, regulatory compliance, and trust. This paper examines how explainable artificial intelligence (XAI) can be integrated into Big Data analytics pipelines for fraud detection and risk management. We review key Big Data characteristics and survey major analytical tools, including distributed storage systems, streaming platforms, and advanced fraud detection models such as anomaly detectors, graph-based approaches, and ensemble classifiers. We also present a structured review of widely used XAI methods, including LIME, SHAP, counterfactual explanations, and attention mechanisms, and analyze their strengths and limitations when deployed at scale. Based on these findings, we identify key research gaps related to scalability, real-time processing, and explainability for graph and temporal models. To address these challenges, we outline a conceptual framework that integrates scalable Big Data infrastructure with context-aware explanation mechanisms and human feedback. The paper concludes with open research directions in scalable XAI, privacy-aware explanations, and standardized evaluation methods for explainable fraud detection systems.
- Abstract(参考訳): Big Dataは金融、保険、サイバーセキュリティの現代的な応用の中心となり、機械学習システムが大規模なリスク評価と不正検出を実行できるようになった。
しかしながら、自動分析への依存度の増加は、透明性、規制コンプライアンス、信頼に関する重要な懸念をもたらしている。
本稿では,不正検出とリスク管理のために,説明可能な人工知能(XAI)をビッグデータ分析パイプラインに統合する方法について検討する。
本稿では,分散ストレージシステム,ストリーミングプラットフォーム,異常検出器,グラフベースアプローチ,アンサンブル分類器などの高度な不正検出モデルなど,ビッグデータの特徴と主要な分析ツールについて概説する。
また, LIME, SHAP, 対実的説明, 注意機構など, 広く使用されているXAI手法を概説し, 大規模展開時の強度と限界を解析した。
これらの知見に基づいて,グラフモデルと時間モデルにおけるスケーラビリティ,リアルタイム処理,説明可能性に関連する重要な研究ギャップを同定する。
これらの課題に対処するために、スケーラブルなビッグデータインフラストラクチャとコンテキスト対応の説明機構と人間のフィードバックを統合した概念的なフレームワークを概説する。
本論文は、スケーラブルなXAIにおけるオープンな研究方向、プライバシ対応の説明、および説明可能な不正検出システムのための標準化された評価手法を結論付けている。
関連論文リスト
- Explaining What Machines See: XAI Strategies in Deep Object Detection Models [0.0]
説明可能な人工知能(XAI)は、モデル決定をより透明化し、解釈可能で、人間にふさわしいものにすることを目的としている。
本稿では,オブジェクト検出モデルに特化して適用される最新技術説明可能性手法を包括的に分析する。
論文 参考訳(メタデータ) (2025-09-02T06:16:30Z) - ProteuS: A Generative Approach for Simulating Concept Drift in Financial Markets [44.76567557906836]
適応アルゴリズムの開発と検証における根本的な問題は、現実世界の財務データに基礎的な真理が欠如していることである。
本稿では,事前定義された構造破壊を伴う半合成財務時系列を生成するための新しいフレームワークProteuSを紹介する。
生成されたデータの解析によってタスクの複雑さが確認され、異なる市場状態間の大きな重複が明らかになる。
論文 参考訳(メタデータ) (2025-08-30T21:01:47Z) - Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Does Machine Unlearning Truly Remove Knowledge? [80.83986295685128]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - Adversarial Challenges in Network Intrusion Detection Systems: Research Insights and Future Prospects [0.33554367023486936]
本稿では,機械学習を用いたネットワーク侵入検知システム(NIDS)の総合的なレビューを行う。
NIDSにおける既存の研究を批判的に検討し、重要なトレンド、強み、限界を強調した。
我々は、この分野における新たな課題について議論し、より堅牢でレジリエントなNIDSの開発に向けた洞察を提供する。
論文 参考訳(メタデータ) (2024-09-27T13:27:29Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - How Can Subgroup Discovery Help AIOps? [0.0]
サブグループディスカバリがAIOpsにどのように役立つかを研究する。
このプロジェクトには、フランスのソフトウェアエディタであるInfologicalのデータマイニングの研究者と実践者の両方が含まれる。
論文 参考訳(メタデータ) (2021-09-10T14:41:02Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。