論文の概要: Privacy-Preserving Financial Anomaly Detection via Federated Learning & Multi-Party Computation
- arxiv url: http://arxiv.org/abs/2310.04546v1
- Date: Fri, 6 Oct 2023 19:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 03:02:24.792434
- Title: Privacy-Preserving Financial Anomaly Detection via Federated Learning & Multi-Party Computation
- Title(参考訳): フェデレーションラーニングとマルチパーティ計算によるプライバシー保護型財務異常検出
- Authors: Sunpreet Arora, Andrew Beams, Panagiotis Chatzigiannis, Sebastian Meiser, Karan Patel, Srinivasan Raghuraman, Peter Rindal, Harshal Shah, Yizhen Wang, Yuhang Wu, Hao Yang, Mahdi Zamani,
- Abstract要約: 本稿では、金融機関が高精度な異常検出モデルを共同で訓練できるプライバシー保護フレームワークについて述べる。
当社のソリューションは,顧客データのプライバシを保ちながら,高精度な異常検出モデルをトレーニングすることを可能にする。
- 参考スコア(独自算出の注目度): 17.314619091307343
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One of the main goals of financial institutions (FIs) today is combating fraud and financial crime. To this end, FIs use sophisticated machine-learning models trained using data collected from their customers. The output of machine learning models may be manually reviewed for critical use cases, e.g., determining the likelihood of a transaction being anomalous and the subsequent course of action. While advanced machine learning models greatly aid an FI in anomaly detection, model performance could be significantly improved using additional customer data from other FIs. In practice, however, an FI may not have appropriate consent from customers to share their data with other FIs. Additionally, data privacy regulations may prohibit FIs from sharing clients' sensitive data in certain geographies. Combining customer data to jointly train highly accurate anomaly detection models is therefore challenging for FIs in operational settings. In this paper, we describe a privacy-preserving framework that allows FIs to jointly train highly accurate anomaly detection models. The framework combines the concept of federated learning with efficient multi-party computation and noisy aggregates inspired by differential privacy. The presented framework was submitted as a winning entry to the financial crime detection track of the US/UK PETs Challenge. The challenge considered an architecture where banks hold customer data and execute transactions through a central network. We show that our solution enables the network to train a highly accurate anomaly detection model while preserving privacy of customer data. Experimental results demonstrate that use of additional customer data using the proposed approach results in improvement of our anomaly detection model's AUPRC from 0.6 to 0.7. We discuss how our framework, can be generalized to other similar scenarios.
- Abstract(参考訳): 今日の金融機関(FIs)の主な目的の1つは、詐欺や金融犯罪と戦うことである。
この目的のためにFIは、顧客から収集したデータを使って訓練された洗練された機械学習モデルを使用する。
機械学習モデルのアウトプットは、トランザクションが異常である可能性とその後のアクションの手順を決定するといった、重要なユースケースのために手動でレビューすることができる。
高度な機械学習モデルは異常検出においてFIを大いに支援する一方で、他のFIから追加の顧客データを使用してモデル性能を著しく向上させることができる。
しかし、実際には、FIは他のFIとデータを共有するための顧客からの適切な同意が得られない可能性がある。
さらに、データプライバシの規制は、FIが特定の地理的にクライアントの機密データを共有することを禁じる可能性がある。
したがって、顧客のデータを組み合わせて高精度な異常検出モデルを共同訓練することは、運用環境におけるFIにとって困難である。
本稿では、FIが高精度な異常検出モデルを共同で訓練できるプライバシー保護フレームワークについて述べる。
このフレームワークは、フェデレーション学習の概念と、差分プライバシーにインスパイアされた効率的なマルチパーティ計算とノイズの多い集約を組み合わせる。
提示された枠組みは、US/UK PETs Challengeの金融犯罪検出トラックの勝者として提出された。
この課題は、銀行が顧客データを保持し、中央ネットワークを通じてトランザクションを実行するアーキテクチャを検討することである。
当社のソリューションは,顧客データのプライバシを保ちながら,高精度な異常検出モデルをトレーニングすることを可能にする。
実験の結果,提案手法を用いて顧客データを追加することで,異常検出モデルのAUPRCを0.6から0.7に改善することがわかった。
我々は、我々のフレームワークが、他の同様のシナリオにどのように一般化されるかについて論じる。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Fin-Fed-OD: Federated Outlier Detection on Financial Tabular Data [11.027356898413139]
実世界のシナリオにおける異常検出は、動的でしばしば未知の異常分布による課題を引き起こす。
本稿では、データの機密性を損なうことなく、個々の組織における異常検出を強化するという課題に対処する。
本稿では,表現学習とフェデレーション学習技術を利用して未知の異常の検出を改善する手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:22:04Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z) - Relational Graph Neural Networks for Fraud Detection in a Super-App
environment [53.561797148529664]
スーパーアプリケーションの金融サービスにおける不正行為防止のための関係グラフ畳み込みネットワーク手法の枠組みを提案する。
我々は,グラフニューラルネットワークの解釈可能性アルゴリズムを用いて,ユーザの分類タスクに対する最も重要な関係を判定する。
以上の結果から,Super-Appの代替データと高接続性で得られるインタラクションを利用するモデルには,付加価値があることが示唆された。
論文 参考訳(メタデータ) (2021-07-29T00:02:06Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - A Semi-supervised Graph Attentive Network for Financial Fraud Detection [30.645390612737266]
本稿では,多視点ラベル付きおよびラベルなしデータを不正検出に用いる半教師付き減衰型グラフニューラルネットワークSemiSemiGNNを提案する。
ソーシャルリレーションとユーザ属性を利用することで,2つのタスクにおける最先端手法と比較して精度が向上する。
論文 参考訳(メタデータ) (2020-02-28T10:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。