論文の概要: Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design
- arxiv url: http://arxiv.org/abs/2012.09364v1
- Date: Thu, 17 Dec 2020 02:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:14:40.701292
- Title: Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design
- Title(参考訳): アルゴリズム・暗号共設計によるスケーラブル・プライバシ保全型深層ニューラルネットワーク
- Authors: Chaochao Chen, Jun Zhou, Longfei Zheng, Yan Wang, Xiaolin Zheng,
Bingzhe Wu, Cen Chen, Li Wang, and Jianwei Yin
- Abstract要約: スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
- 参考スコア(独自算出の注目度): 28.789702559193675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have achieved remarkable progress in various
real-world applications, especially when abundant training data are provided.
However, data isolation has become a serious problem currently. Existing works
build privacy preserving DNN models from either algorithmic perspective or
cryptographic perspective. The former mainly splits the DNN computation graph
between data holders or between data holders and server, which demonstrates
good scalability but suffers from accuracy loss and potential privacy risks. In
contrast, the latter leverages time-consuming cryptographic techniques, which
has strong privacy guarantee but poor scalability. In this paper, we propose
SPNN - a Scalable and Privacy-preserving deep Neural Network learning
framework, from algorithmic-cryptographic co-perspective. From algorithmic
perspective, we split the computation graph of DNN models into two parts, i.e.,
the private data related computations that are performed by data holders and
the rest heavy computations that are delegated to a server with high
computation ability. From cryptographic perspective, we propose using two types
of cryptographic techniques, i.e., secret sharing and homomorphic encryption,
for the isolated data holders to conduct private data related computations
privately and cooperatively. Furthermore, we implement SPNN in a decentralized
setting and introduce user-friendly APIs. Experimental results conducted on
real-world datasets demonstrate the superiority of SPNN.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、特に豊富なトレーニングデータを提供する場合、様々な現実世界のアプリケーションにおいて顕著な進歩を遂げている。
しかし、データ分離は現在深刻な問題となっている。
既存の作業は、アルゴリズムの観点からも暗号化の観点からも、DNNモデルをプライバシ保護する。
前者は主にデータホルダとデータホルダとサーバでDNN計算グラフを分割するが、スケーラビリティは良好だが、精度の低下と潜在的なプライバシーリスクに悩まされている。
対照的に後者は、プライバシーの保証は強いがスケーラビリティは乏しい、時間を要する暗号技術を利用している。
本稿では,アルゴリズムと暗号を併用した,スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークSPNNを提案する。
アルゴリズムの観点から,dnnモデルの計算グラフを,データホルダが行うプライベートデータ関連計算と,計算能力の高いサーバに委譲されるその他の重い計算の2つの部分に分割する。
暗号の観点からは,秘密共有法と準同型暗号法という2種類の暗号手法を用いて,私的および協調的にプライベートデータ関連計算を行う手法を提案する。
さらに,SPNNを分散環境で実装し,ユーザフレンドリなAPIを導入する。
実世界のデータセットで行った実験結果はspnnの優位を示している。
関連論文リスト
- Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - Deep Neural Networks for Encrypted Inference with TFHE [0.0]
完全同型暗号(英: Fully homomorphic encryption, FHE)は、復号化せずに暗号化されたデータ上で計算を行うことができる暗号法である。
TFHEは、健康データ、バイオメトリックス、クレジットスコア、その他の個人情報などの機密データを扱うオンラインサービスのユーザのプライバシを保存する。
本稿では、任意の深度計算回路を実現するFHEスキームであるTFHEの制約に適合するディープニューラルネットワーク(DNN)を構築する方法について述べる。
論文 参考訳(メタデータ) (2023-02-13T09:53:31Z) - Wide and Deep Graph Neural Network with Distributed Online Learning [174.8221510182559]
グラフニューラルネットワーク(GNN)は、ネットワークデータから表現を学習するための、自然に分散したアーキテクチャである。
オンライン学習は、この問題を克服するためにテスト時にGNNを再トレーニングするために利用することができる。
本稿では,分散オンライン学習機構で更新可能な新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を開発する。
論文 参考訳(メタデータ) (2021-07-19T23:56:48Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets [7.067870969078555]
暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシ保護機械学習タスクに対処するための、既存の有望なアプローチである。
複数の情報源から収集された複数のデータセット上でディープニューラルネットワーク(DNN)モデルをトレーニングするための新しいフレームワークであるNN-EMDを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2020-12-18T23:01:20Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Wide and Deep Graph Neural Networks with Distributed Online Learning [175.96910854433574]
グラフニューラルネットワーク(GNN)は、自然に分散したアーキテクチャでネットワークデータから表現を学習する。
オンライン学習は、テスト時にGNNを再トレーニングするために使用することができ、この問題を克服することができる。
本稿では,分散オンライン学習機構で容易に更新できる新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を提案する。
論文 参考訳(メタデータ) (2020-06-11T12:48:03Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。