論文の概要: Additively Homomorphical Encryption based Deep Neural Network for
Asymmetrically Collaborative Machine Learning
- arxiv url: http://arxiv.org/abs/2007.06849v1
- Date: Tue, 14 Jul 2020 06:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 13:49:51.302690
- Title: Additively Homomorphical Encryption based Deep Neural Network for
Asymmetrically Collaborative Machine Learning
- Title(参考訳): 非対称協調機械学習のための追加同型暗号化に基づくディープニューラルネットワーク
- Authors: Yifei Zhang and Hao Zhu
- Abstract要約: 機械学習の保存は、金融セクターにおけるさらなる適用を制限する制約を生み出す。
我々は、ある当事者がデータを所有するが、別の当事者がラベルのみを所有する新しい協調機械学習の実践的手法を提案する。
異なるデータセットに対する我々の実験は、精度のない安定したトレーニングだけでなく、100倍以上のスピードアップも示しています。
- 参考スコア(独自算出の注目度): 12.689643742151516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The financial sector presents many opportunities to apply various machine
learning techniques. Centralized machine learning creates a constraint which
limits further applications in finance sectors. Data privacy is a fundamental
challenge for a variety of finance and insurance applications that account on
learning a model across different sections. In this paper, we define a new
practical scheme of collaborative machine learning that one party owns data,
but another party owns labels only, and term this \textbf{Asymmetrically
Collaborative Machine Learning}. For this scheme, we propose a novel
privacy-preserving architecture where two parties can collaboratively train a
deep learning model efficiently while preserving the privacy of each party's
data. More specifically, we decompose the forward propagation and
backpropagation of the neural network into four different steps and propose a
novel protocol to handle information leakage in these steps. Our extensive
experiments on different datasets demonstrate not only stable training without
accuracy loss, but also more than 100 times speedup compared with the
state-of-the-art system.
- Abstract(参考訳): 金融セクターは、さまざまな機械学習技術を適用する多くの機会を提供する。
集中型機械学習は金融セクターにおけるさらなる適用を制限する制約を生み出す。
データプライバシは、さまざまなセクションでモデルを学習するさまざまな金融および保険アプリケーションにとって、基本的な課題である。
本稿では,一方の当事者がデータを所有し,他方がラベルのみを所有する協調機械学習の新たな実践的手法を定義し,これを「非対称協調機械学習」と呼ぶ。
本研究では,両者が協調的に深層学習モデルを学習し,それぞれのデータのプライバシーを保ちながら効率的に学習できる新しいプライバシ保護アーキテクチャを提案する。
より具体的には、ニューラルネットワークの前方伝播と後方伝播を4つの異なるステップに分解し、これらのステップで情報漏洩を処理する新しいプロトコルを提案する。
異なるデータセットに対する広範な実験は、精度の低下なしに安定したトレーニングを行うだけでなく、最先端システムと比較して100倍以上のスピードアップを示す。
関連論文リスト
- Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Practical Vertical Federated Learning with Unsupervised Representation
Learning [47.77625754666018]
フェデレートされた学習は、複数のパーティが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
我々はFedOnceという,一対一のコミュニケーションしか必要としない新しいコミュニケーション効率の縦型学習アルゴリズムを提案する。
私たちのプライバシー保護技術は、同じプライバシー予算の下で最先端のアプローチを著しく上回ります。
論文 参考訳(メタデータ) (2022-08-13T08:41:32Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - Efficient Differentially Private Secure Aggregation for Federated
Learning via Hardness of Learning with Errors [1.4680035572775534]
フェデレーション機械学習はエッジコンピューティングを活用して、ネットワークユーザデータからモデルを開発する。
連邦学習におけるプライバシーは依然として大きな課題である。
マルチパーティ計算を用いた環境アグリゲーションの最近の進歩は、サードパーティの必要性を排除している。
そこで本研究では,新たな個人的かつ悪意のあるセキュアなアグリゲーションプロトコルを活用した,新たなフェデレーション学習プロトコルを提案する。
論文 参考訳(メタデータ) (2021-12-13T18:31:08Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - MORSE-STF: A Privacy Preserving Computation System [12.875477499515158]
MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
論文 参考訳(メタデータ) (2021-09-24T03:42:46Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。