論文の概要: Privacy-Preserving Graph-Based Machine Learning with Fully Homomorphic Encryption for Collaborative Anti-Money Laundering
- arxiv url: http://arxiv.org/abs/2411.02926v2
- Date: Mon, 11 Nov 2024 16:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:10:06.634043
- Title: Privacy-Preserving Graph-Based Machine Learning with Fully Homomorphic Encryption for Collaborative Anti-Money Laundering
- Title(参考訳): 完全同型暗号化によるプライバシー保護型グラフベース機械学習
- Authors: Fabrianne Effendi, Anupam Chattopadhyay,
- Abstract要約: 本研究では、協調機械学習のための新しいプライバシー保護手法を提案する。
プライバシと規制の遵守を維持しながら、機関や国境を越えたセキュアなデータ共有を容易にする。
この研究は2つの重要なプライバシー保護パイプラインに貢献している。
- 参考スコア(独自算出の注目度): 4.1964397179107085
- License:
- Abstract: Combating money laundering has become increasingly complex with the rise of cybercrime and digitalization of financial transactions. Graph-based machine learning techniques have emerged as promising tools for Anti-Money Laundering (AML) detection, capturing intricate relationships within money laundering networks. However, the effectiveness of AML solutions is hindered by data silos within financial institutions, limiting collaboration and overall efficacy. This research presents a novel privacy-preserving approach for collaborative AML machine learning, facilitating secure data sharing across institutions and borders while preserving privacy and regulatory compliance. Leveraging Fully Homomorphic Encryption (FHE), computations are directly performed on encrypted data, ensuring the confidentiality of financial data. Notably, FHE over the Torus (TFHE) was integrated with graph-based machine learning using Zama Concrete ML. The research contributes two key privacy-preserving pipelines. First, the development of a privacy-preserving Graph Neural Network (GNN) pipeline was explored. Optimization techniques like quantization and pruning were used to render the GNN FHE-compatible. Second, a privacy-preserving graph-based XGBoost pipeline leveraging Graph Feature Preprocessor (GFP) was successfully developed. Experiments demonstrated strong predictive performance, with the XGBoost model consistently achieving over 99% accuracy, F1-score, precision, and recall on the balanced AML dataset in both unencrypted and FHE-encrypted inference settings. On the imbalanced dataset, the incorporation of graph-based features improved the F1-score by 8%. The research highlights the need to balance the trade-off between privacy and computational efficiency.
- Abstract(参考訳): サイバー犯罪の興隆と金融取引のデジタル化に伴い、マネーロンダリングの議論はますます複雑になっている。
グラフベースの機械学習技術は、マネーロンダリングネットワーク内で複雑な関係をキャプチャするアンチモニー洗浄(AML)検出のための有望なツールとして登場した。
しかし、AMLソリューションの有効性は、金融機関内のデータサイロによって妨げられ、協力や全体的な効果が制限される。
本研究は、プライバシーと規制の遵守を維持しながら、機関や国境を越えてセキュアなデータ共有を容易にする、共同AML機械学習のための新たなプライバシ保護アプローチを提案する。
FHE(Fully Homomorphic Encryption)を利用すると、計算は直接暗号化データ上で行われ、財務データの機密性が保証される。
特に、FHE over the Torus (TFHE) はZama concrete MLを用いたグラフベースの機械学習と統合された。
この研究は2つの重要なプライバシー保護パイプラインに貢献している。
まず、プライバシ保護グラフニューラルネットワーク(GNN)パイプラインの開発について検討した。
量子化やプルーニングといった最適化技術は、GNN FHE互換のレンダリングに使われた。
第2に、グラフ特徴前処理(GFP)を利用したプライバシー保護グラフベースのXGBoostパイプラインの開発に成功した。
XGBoostモデルは、暗号化されていない設定とFHE暗号化された推論設定の両方で、バランスのとれたAMLデータセットの精度、F1スコア、精度、リコールを一貫して99%以上達成している。
不均衡データセットでは、グラフベースの特徴の取り込みによりF1スコアは8%向上した。
この研究は、プライバシと計算効率のトレードオフをバランスさせる必要性を強調している。
関連論文リスト
- Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - Starlit: Privacy-Preserving Federated Learning to Enhance Financial
Fraud Detection [2.436659710491562]
Federated Learning(FL)は、さまざまなクライアントとローカルデータの間で協調的なモデルトレーニングを可能にする、データ最小化のアプローチである。
不正な金融取引を識別するための最先端のFLソリューションは、以下の制限のサブセットを示している。
Starlitは,これらの制限を克服する,スケーラブルなプライバシ保護機構である。
論文 参考訳(メタデータ) (2024-01-19T15:37:11Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - 2SFGL: A Simple And Robust Protocol For Graph-Based Fraud Detection [1.6427658855248812]
フェデレートグラフ学習(Federated Graph Learning, 2SFGL)のための新しい2段階アプローチを提案する。
2SFGLはマルチパーティグラフの仮想融合を伴い、もう1つは仮想グラフのモデルトレーニングと推論である。
我々は,FraudAmazonDatasetとFraudYelpDatasetに基づいて,従来の不正検出タスクにおけるフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-12T13:48:26Z) - LaundroGraph: Self-Supervised Graph Representation Learning for
Anti-Money Laundering [5.478764356647437]
LaundroGraphは、新しい教師付きグラフ表現学習アプローチである。
マネーロンダリング防止プロセスを支援するための洞察を提供する。
我々の知る限りでは、これはAML検出の文脈における最初の完全自己教師システムである。
論文 参考訳(メタデータ) (2022-10-25T21:58:02Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。