論文の概要: Locally Differentially Private Embedding Models in Distributed Fraud
Prevention Systems
- arxiv url: http://arxiv.org/abs/2401.02450v1
- Date: Wed, 3 Jan 2024 14:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 17:17:28.118199
- Title: Locally Differentially Private Embedding Models in Distributed Fraud
Prevention Systems
- Title(参考訳): 分散不正防止システムにおける局所的微分プライベート埋め込みモデル
- Authors: Iker Perez, Jason Wong, Piotr Skalski, Stuart Burrell, Richard
Mortier, Derek McAuley, David Sutton
- Abstract要約: プライバシの観点から設計され,最近のPETs Prize Challengesで授与された不正防止のための協調的なディープラーニングフレームワークを提案する。
各種トランザクションシーケンスの潜時埋め込み表現とローカル差分プライバシを利用して、外部にホストされた不正や異常検出モデルを安全に通知するデータリリース機構を構築する。
我々は,大規模決済ネットワークが寄贈した2つの分散データセットへのコントリビューションを評価し,他のアプリケーションドメインでの公開作業に類似したユーティリティ・プライバシ・トレードオフとともに,一般的な推論時攻撃に対するロバスト性を示す。
- 参考スコア(独自算出の注目度): 2.001149416674759
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Global financial crime activity is driving demand for machine learning
solutions in fraud prevention. However, prevention systems are commonly
serviced to financial institutions in isolation, and few provisions exist for
data sharing due to fears of unintentional leaks and adversarial attacks.
Collaborative learning advances in finance are rare, and it is hard to find
real-world insights derived from privacy-preserving data processing systems. In
this paper, we present a collaborative deep learning framework for fraud
prevention, designed from a privacy standpoint, and awarded at the recent PETs
Prize Challenges. We leverage latent embedded representations of varied-length
transaction sequences, along with local differential privacy, in order to
construct a data release mechanism which can securely inform externally hosted
fraud and anomaly detection models. We assess our contribution on two
distributed data sets donated by large payment networks, and demonstrate
robustness to popular inference-time attacks, along with utility-privacy
trade-offs analogous to published work in alternative application domains.
- Abstract(参考訳): グローバルな金融犯罪活動は、不正防止における機械学習ソリューションの需要を押し上げている。
しかし、予防システムは個別に金融機関に提供され、意図しない漏洩や敵対攻撃の恐れから、データ共有のための規定は少ない。
金融における協調学習の進歩は稀であり,プライバシ保護データ処理システムから得られた実世界の洞察を見つけることは困難である。
本稿では,プライバシの観点から設計され,最近のPETs Prize Challengesで授与された不正防止のための協調的ディープラーニングフレームワークを提案する。
我々は,外部にホストされた不正および異常検出モデルにセキュアに通知できるデータ解放機構を構築するために,異なるトランザクションシーケンスの潜在埋め込み表現と局所的差分プライバシを利用する。
我々は,大規模支払いネットワークから寄贈された2つの分散データセットに対する貢献を評価し,一般的な推論時間攻撃に対する堅牢性を示すとともに,他のアプリケーションドメインでの公開作業と類似したユーティリティプライバシートレードオフを示す。
関連論文リスト
- DPFedBank: Crafting a Privacy-Preserving Federated Learning Framework for Financial Institutions with Policy Pillars [0.09363323206192666]
本稿では、金融機関が協調して機械学習モデルを開発できるようにする革新的なフレームワークDPFedBankについて述べる。
DPFedBankは、金融データに関連するユニークなプライバシとセキュリティ上の課題に対処するために設計されている。
論文 参考訳(メタデータ) (2024-10-17T16:51:56Z) - Fin-Fed-OD: Federated Outlier Detection on Financial Tabular Data [11.027356898413139]
実世界のシナリオにおける異常検出は、動的でしばしば未知の異常分布による課題を引き起こす。
本稿では、データの機密性を損なうことなく、個々の組織における異常検出を強化するという課題に対処する。
本稿では,表現学習とフェデレーション学習技術を利用して未知の異常の検出を改善する手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:22:04Z) - Transparency and Privacy: The Role of Explainable AI and Federated
Learning in Financial Fraud Detection [0.9831489366502302]
本研究は,これらの課題に対処するために,FL(Federated Learning)とXAI(Explainable AI)を用いた新しいアプローチを提案する。
FLは、金融機関が顧客データを直接共有することなく、不正取引を検出するモデルを協調的に訓練することを可能にする。
XAIは、モデルによってなされた予測が人間の専門家によって理解され解釈され、システムに透明性と信頼のレイヤを追加することを保証します。
論文 参考訳(メタデータ) (2023-12-20T18:26:59Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - A Privacy-Preserving Hybrid Federated Learning Framework for Financial
Crime Detection [27.284477227066972]
本稿では,金融犯罪検知のためのセキュアでプライバシーに配慮した学習と推論を提供するハイブリッド・フェデレーション学習システムを提案する。
提案するフレームワークの検知性能とプライバシ保護能力を評価するために,広範な実証的研究を行った。
論文 参考訳(メタデータ) (2023-02-07T18:12:48Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。