論文の概要: Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications
- arxiv url: http://arxiv.org/abs/2010.05867v1
- Date: Mon, 12 Oct 2020 17:16:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:51:29.350248
- Title: Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications
- Title(参考訳): 金融分野におけるフェデレート学習のための微分プライベートセキュアマルチパーティ計算
- Authors: David Byrd and Antigoni Polychroniadou
- Abstract要約: フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
- 参考スコア(独自算出の注目度): 5.50791468454604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning enables a population of clients, working with a trusted
server, to collaboratively learn a shared machine learning model while keeping
each client's data within its own local systems. This reduces the risk of
exposing sensitive data, but it is still possible to reverse engineer
information about a client's private data set from communicated model
parameters. Most federated learning systems therefore use differential privacy
to introduce noise to the parameters. This adds uncertainty to any attempt to
reveal private client data, but also reduces the accuracy of the shared model,
limiting the useful scale of privacy-preserving noise. A system can further
reduce the coordinating server's ability to recover private client information,
without additional accuracy loss, by also including secure multiparty
computation. An approach combining both techniques is especially relevant to
financial firms as it allows new possibilities for collaborative learning
without exposing sensitive client data. This could produce more accurate models
for important tasks like optimal trade execution, credit origination, or fraud
detection. The key contributions of this paper are: We present a
privacy-preserving federated learning protocol to a non-specialist audience,
demonstrate it using logistic regression on a real-world credit card fraud data
set, and evaluate it using an open-source simulation platform which we have
adapted for the development of federated learning systems.
- Abstract(参考訳): フェデレーション学習(federated learning)は、信頼されたサーバと作業するクライアント集団が、各クライアントのデータを自身のローカルシステム内に保持しながら、共有機械学習モデルを共同学習することを可能にする。
これにより機密データを露出するリスクが軽減されるが、通信モデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
したがって、ほとんどの連合学習システムはパラメータにノイズを導入するために差分プライバシーを使用する。
これにより、プライベートクライアントデータを明らかにする試みに不確実性が加わり、共有モデルの精度が低下し、プライバシ保存ノイズの有効なスケールが制限される。
システムは、セキュアなマルチパーティ計算を含むことで、さらに精度を損なうことなく、プライベートクライアント情報を復元するサーバのコーディネート能力をさらに削減することができる。
両方のテクニックを組み合わせるアプローチは、機密性の高いクライアントデータを公開せずに、協調学習の新たな可能性を実現するため、金融機関にとって特に重要となる。
これにより、最適な取引実行、クレジットの発案、不正検出といった重要なタスクのより正確なモデルが作成できる。
本稿では,非専門的オーディエンスに対して,プライバシ保護型フェデレーション学習プロトコルを提示するとともに,実世界のクレジットカード詐欺データセット上でロジスティック回帰を用いて実証し,フェデレーション学習システムの開発に適応したオープンソースシミュレーションプラットフォームを用いて評価する。
関連論文リスト
- Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - FedHP: Heterogeneous Federated Learning with Privacy-preserving [0.0]
フェデレーション学習は分散機械学習環境であり、パラメータを交換するだけで、クライアントがプライベートデータを共有せずにコラボレーティブなトレーニングを完了できるようにする。
本稿では,事前学習されたモデルをバックボーンとして,完全に接続されたレイヤをヘッドとして構成する,新しいフェデレーション学習手法を提案する。
勾配空間に基づくパラメータではなく、クラスの埋め込みベクトルを共有することで、クライアントはプライベートデータにより適応でき、サーバとクライアント間の通信においてより効率的になります。
論文 参考訳(メタデータ) (2023-01-27T13:32:17Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - PrivacyFL: A simulator for privacy-preserving and secure federated
learning [2.578242050187029]
フェデレートラーニング(Federated Learning)とは、分散クライアントが共同で機械学習モデルを学ぶことを可能にするテクニックである。
PrivacyFLはプライバシ保護とセキュアなフェデレーション学習シミュレータである。
論文 参考訳(メタデータ) (2020-02-19T20:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。