論文の概要: Privacy-Preserving Federated Fraud Detection in Payment Transactions with NVIDIA FLARE
- arxiv url: http://arxiv.org/abs/2603.13617v1
- Date: Fri, 13 Mar 2026 21:50:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.301559
- Title: Privacy-Preserving Federated Fraud Detection in Payment Transactions with NVIDIA FLARE
- Title(参考訳): NVIDIA FLAREによる支払いトランザクションにおけるプライバシ保護フェデレーションフレード検出
- Authors: Holger R. Roth, Sarthak Tickoo, Mayank Kumar, Isaac Yang, Andrew Liu, Amit Varshney, Sayani Kundu, Iustina Vintila, Peter Madsgaard, Juraj Milcak, Chester Chen, Yan Cheng, Andrew Feng, Jeff Savio, Vikram Singh, Craig Stancill, Gloria Wan, Evan Powell, Anwar Ul Haq, Sudhir Upadhyay, Jisoo Lee,
- Abstract要約: 本稿では、NVIDIA FLAREフレームワークを用いて、支払いトランザクションに対するフェデレートされた異常検出を評価する。
我々は、異種金融機関の現実的な連盟をシミュレートし、それぞれが異なる詐欺のタイプを観察する。
フェデレーション平均化(FedAvg)を用いてトレーニングしたディープニューラルネットワークを用いて,フェデレーションモデルの平均F1スコアが0.903であることを示す。
- 参考スコア(独自算出の注目度): 8.722681894212917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fraud-related financial losses continue to rise, while regulatory, privacy, and data-sovereignty constraints increasingly limit the feasibility of centralized fraud detection systems. Federated Learning (FL) has emerged as a promising paradigm for enabling collaborative model training across institutions without sharing raw transaction data. Yet, its practical effectiveness under realistic, non-IID financial data distributions remains insufficiently validated. In this work, we present a multi-institution, industry-oriented proof-of-concept study evaluating federated anomaly detection for payment transactions using the NVIDIA FLARE framework. We simulate a realistic federation of heterogeneous financial institutions, each observing distinct fraud typologies and operating under strict data isolation. Using a deep neural network trained via federated averaging (FedAvg), we demonstrate that federated models achieve a mean F1-score of 0.903 - substantially outperforming locally trained models (0.643) and closely approaching centralized training performance (0.925), while preserving full data sovereignty. We further analyze convergence behavior, showing that strong performance is achieved within 10 federated communication rounds, highlighting the operational viability of FL in latency- and cost-sensitive financial environments. To support deployment in regulated settings, we evaluate model interpretability using Shapley-based feature attribution and confirm that federated models rely on semantically coherent, domain-relevant decision signals. Finally, we incorporate sample-level differential privacy via DP-SGD and demonstrate favorable privacy-utility trade-offs...
- Abstract(参考訳): 不正関連の財政損失は増加し続けており、規制、プライバシー、データ保護の制約により、集中型詐欺検知システムの可能性はますます制限されている。
フェデレートラーニング(FL)は、生のトランザクションデータを共有せずに機関間で協調的なモデルトレーニングを可能にするための、有望なパラダイムとして登場した。
しかし、現実的で非IIDの財務データ配信の実践的効果は、まだ不十分なままである。
本研究では、NVIDIA FLAREフレームワークを用いて、支払いトランザクションに対するフェデレートされた異常検出を評価する。
我々は異種金融機関の現実的な連盟をシミュレートし、それぞれが異なる不正のタイプを観察し、厳密なデータ隔離の下で運営する。
フェデレーション平均化(FedAvg)によってトレーニングされたディープニューラルネットワークを用いて、フェデレーションされたモデルが平均F1スコアの0.903を達成し、局所的にトレーニングされたモデル(0.643)を大幅に上回り、完全なデータ主権を維持しながら集中的なトレーニングパフォーマンス(0.925)に近づいたことを実証した。
さらにコンバージェンス挙動を解析し,10回のフェデレーション通信ラウンドで高い性能を達成し,レイテンシとコストに敏感な金融環境におけるFLの運用可能性を明らかにする。
規制された環境での展開を支援するため、Shapleyに基づく特徴属性を用いたモデル解釈可能性を評価し、フェデレーションモデルが意味論的に一貫性のあるドメイン関連決定信号に依存していることを確認する。
最後に、DP-SGDを通じてサンプルレベルの差分プライバシーを導入し、適切なプライバシーとユーティリティのトレードオフを示す。
関連論文リスト
- FedPBS: Proximal-Balanced Scaling Federated Learning Model for Robust Personalized Training for Non-IID Data [0.2840208039211775]
フェデレートラーニング(FL)は、分散クライアントのセットで、機械学習モデルを共同でトレーニングすることを可能にする。
我々はこれらの課題に対処するために、FedBSとFedProxの相補的なアイデアを結合するFLアルゴリズムであるFedPBSを提案する。
論文 参考訳(メタデータ) (2026-03-14T11:44:27Z) - Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
情報共有の適度なレベルでさえ、環境固有のエラーを著しく軽減することを示す。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - Starlit: Privacy-Preserving Federated Learning to Enhance Financial
Fraud Detection [2.436659710491562]
Federated Learning(FL)は、さまざまなクライアントとローカルデータの間で協調的なモデルトレーニングを可能にする、データ最小化のアプローチである。
不正な金融取引を識別するための最先端のFLソリューションは、以下の制限のサブセットを示している。
Starlitは,これらの制限を克服する,スケーラブルなプライバシ保護機構である。
論文 参考訳(メタデータ) (2024-01-19T15:37:11Z) - Transparency and Privacy: The Role of Explainable AI and Federated
Learning in Financial Fraud Detection [0.9831489366502302]
本研究は,これらの課題に対処するために,FL(Federated Learning)とXAI(Explainable AI)を用いた新しいアプローチを提案する。
FLは、金融機関が顧客データを直接共有することなく、不正取引を検出するモデルを協調的に訓練することを可能にする。
XAIは、モデルによってなされた予測が人間の専門家によって理解され解釈され、システムに透明性と信頼のレイヤを追加することを保証します。
論文 参考訳(メタデータ) (2023-12-20T18:26:59Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。