論文の概要: Industrial Scale Privacy Preserving Deep Neural Network
- arxiv url: http://arxiv.org/abs/2003.05198v2
- Date: Thu, 12 Mar 2020 05:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:03:29.127998
- Title: Industrial Scale Privacy Preserving Deep Neural Network
- Title(参考訳): 産業規模のプライバシー保護深層ニューラルネットワーク
- Authors: Longfei Zheng, Chaochao Chen, Yingting Liu, Bingzhe Wu, Xibin Wu, Li
Wang, Lei Wang, Jun Zhou, Shuang Yang
- Abstract要約: 本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
- 参考スコア(独自算出の注目度): 23.690146141150407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Network (DNN) has been showing great potential in kinds of
real-world applications such as fraud detection and distress prediction.
Meanwhile, data isolation has become a serious problem currently, i.e.,
different parties cannot share data with each other. To solve this issue, most
research leverages cryptographic techniques to train secure DNN models for
multi-parties without compromising their private data. Although such methods
have strong security guarantee, they are difficult to scale to deep networks
and large datasets due to its high communication and computation complexities.
To solve the scalability of the existing secure Deep Neural Network (DNN) in
data isolation scenarios, in this paper, we propose an industrial scale privacy
preserving neural network learning paradigm, which is secure against
semi-honest adversaries. Our main idea is to split the computation graph of DNN
into two parts, i.e., the computations related to private data are performed by
each party using cryptographic techniques, and the rest computations are done
by a neutral server with high computation ability. We also present a defender
mechanism for further privacy protection. We conduct experiments on real-world
fraud detection dataset and financial distress prediction dataset, the
encouraging results demonstrate the practicalness of our proposal.
- Abstract(参考訳): deep neural network(dnn)は、詐欺検出や遭難予測など、現実世界のアプリケーションで大きな可能性を秘めている。
一方で、データ分離は現在、さまざまなパーティが互いにデータを共有することができないという深刻な問題になっている。
この問題を解決するために、多くの研究は暗号化技術を活用して、プライベートデータを妥協することなく、複数のパーティでセキュアなDNNモデルをトレーニングしている。
このような手法には強力なセキュリティ保証があるが、通信や計算の複雑さが高いため、ディープネットワークや大規模データセットにスケールすることは困難である。
本稿では、データ分離シナリオにおける既存のセキュアなディープニューラルネットワーク(DNN)のスケーラビリティを解決するために、半正直な敵に対して安全である産業規模のプライバシ保護ニューラルネットワーク学習パラダイムを提案する。
DNNの計算グラフを2つの部分に分割する、すなわち、秘密データに関連する計算は暗号化技術を用いてそれぞれ行い、残りの計算は高い計算能力を持つ中立サーバによって行われる、という考え方である。
さらに,プライバシ保護のための防御機構も提示する。
我々は,実世界の不正検出データセットと金融危機予測データセットについて実験を行い,提案の実用性を示す。
関連論文リスト
- Deep Neural Networks for Encrypted Inference with TFHE [0.0]
完全同型暗号(英: Fully homomorphic encryption, FHE)は、復号化せずに暗号化されたデータ上で計算を行うことができる暗号法である。
TFHEは、健康データ、バイオメトリックス、クレジットスコア、その他の個人情報などの機密データを扱うオンラインサービスのユーザのプライバシを保存する。
本稿では、任意の深度計算回路を実現するFHEスキームであるTFHEの制約に適合するディープニューラルネットワーク(DNN)を構築する方法について述べる。
論文 参考訳(メタデータ) (2023-02-13T09:53:31Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets [7.067870969078555]
暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシ保護機械学習タスクに対処するための、既存の有望なアプローチである。
複数の情報源から収集された複数のデータセット上でディープニューラルネットワーク(DNN)モデルをトレーニングするための新しいフレームワークであるNN-EMDを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2020-12-18T23:01:20Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。