論文の概要: NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets
- arxiv url: http://arxiv.org/abs/2012.10547v2
- Date: Sun, 18 Apr 2021 00:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 17:58:52.190019
- Title: NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets
- Title(参考訳): NN-EMD: 暗号化マルチソースデータセットを用いたニューラルネットワークの効率的なトレーニング
- Authors: Runhua Xu, James Joshi and Chao Li
- Abstract要約: 暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシ保護機械学習タスクに対処するための、既存の有望なアプローチである。
複数の情報源から収集された複数のデータセット上でディープニューラルネットワーク(DNN)モデルをトレーニングするための新しいフレームワークであるNN-EMDを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
- 参考スコア(独自算出の注目度): 7.067870969078555
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Training a machine learning model over an encrypted dataset is an existing
promising approach to address the privacy-preserving machine learning task,
however, it is extremely challenging to efficiently train a deep neural network
(DNN) model over encrypted data for two reasons: first, it requires large-scale
computation over huge datasets; second, the existing solutions for computation
over encrypted data, such as homomorphic encryption, is inefficient. Further,
for an enhanced performance of a DNN model, we also need to use huge training
datasets composed of data from multiple data sources that may not have
pre-established trust relationships among each other. We propose a novel
framework, NN-EMD, to train DNN over multiple encrypted datasets collected from
multiple sources. Toward this, we propose a set of secure computation protocols
using hybrid functional encryption schemes. We evaluate our framework for
performance with regards to the training time and model accuracy on the MNIST
datasets. Compared to other existing frameworks, our proposed NN-EMD framework
can significantly reduce the training time, while providing comparable model
accuracy and privacy guarantees as well as supporting multiple data sources.
Furthermore, the depth and complexity of neural networks do not affect the
training time despite introducing a privacy-preserving NN-EMD setting.
- Abstract(参考訳): 暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシを保存する機械学習タスクに対処するための、既存の有望なアプローチであるが、暗号化されたデータ上でディープニューラルネットワーク(dnn)モデルを効率的にトレーニングするのは、2つの理由から非常に困難である。
さらに,DNNモデルの性能向上のためには,信頼関係が確立されていない可能性のある複数のデータソースのデータからなる巨大なトレーニングデータセットを使用する必要がある。
複数のソースから収集された複数の暗号化データセット上でDNNを訓練する新しいフレームワークNN-EMDを提案する。
そこで本研究では,ハイブリッド機能暗号方式を用いたセキュアな計算プロトコルを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
他の既存のフレームワークと比較して、提案するNN-EMDフレームワークはトレーニング時間を著しく短縮し、モデル精度とプライバシ保証と複数のデータソースをサポートする。
さらに、ニューラルネットワークの深さと複雑さは、プライバシー保護のNN-EMD設定を導入してもトレーニング時間に影響しない。
関連論文リスト
- Data Filtering Networks [67.827994353269]
本研究では、大規模な未処理データセットをフィルタリングする第2ステップにおいて、データフィルタリングネットワーク(DFN)を学習する問題について検討する。
我々の重要な発見は、フィルタリングのためのネットワークの品質が下流タスクのパフォーマンスと異なることである。
我々の知見に基づいて、最先端の画像テキストデータセットを誘導する新しいデータフィルタリングネットワークを構築した。
論文 参考訳(メタデータ) (2023-09-29T17:37:29Z) - Towards Robust k-Nearest-Neighbor Machine Translation [72.9252395037097]
近年,k-Nearest-Neighbor Machine Translation (kNN-MT)がNMTの重要な研究方向となっている。
その主なアイデアは、NMTモデルを更新することなく翻訳を変更するために、追加のデータストアから有用なキーと値のペアを取得することである。
取り出したノイズペアはモデル性能を劇的に低下させる。
ノイズの影響を軽減するために,頑健なトレーニングを施した信頼性向上kNN-MTモデルを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:43:39Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Optimal training of integer-valued neural networks with mixed integer
programming [2.528056693920671]
我々は、トレーニング効率を改善し、整数値ニューラルネットワーク(INN)の重要なクラスをトレーニングできる新しいMIPモデルを開発した。
MIPソルバがトレーニングに使用できるデータ量を劇的に増加させるバッチトレーニング方法を提案する。
実世界の2つのデータ制限データセットによる実験結果から,我々の手法は,NNをMIPでトレーニングする際の従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-08T15:45:44Z) - POSEIDON: Privacy-Preserving Federated Neural Network Learning [8.103262600715864]
POSEIDONは、プライバシ保護ニューラルネットワークトレーニングの世界で、最初のタイプのものだ。
トレーニングデータ、モデル、評価データの機密性を維持するために、マルチパーティの格子ベースの暗号を用いる。
MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-09-01T11:06:31Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z) - Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks [37.060397377445504]
無線タスクに広く存在する2種類の置換不変性は、モデルパラメータの数を減らすために利用することができる。
可変DNN (permutation invariant DNN) と呼ばれる特性を満たす入出力関係を持つDNNの特殊構造を求める。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2020-01-29T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。