論文の概要: ARIANN: Low-Interaction Privacy-Preserving Deep Learning via Function
Secret Sharing
- arxiv url: http://arxiv.org/abs/2006.04593v4
- Date: Thu, 28 Oct 2021 09:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:26:21.083132
- Title: ARIANN: Low-Interaction Privacy-Preserving Deep Learning via Function
Secret Sharing
- Title(参考訳): ARIANN: 機能秘密共有による低相互作用のプライバシ保護ディープラーニング
- Authors: Th\'eo Ryffel, Pierre Tholoniat, David Pointcheval and Francis Bach
- Abstract要約: AriaNNは、機密データに対するプライベートニューラルネットワークトレーニングと推論のための、低インタラクションのプライバシ保護フレームワークである。
我々は、ReLU、MaxPool、BatchNormといったニューラルネットワークの構築ブロックのためのプリミティブを設計する。
n-party private federated learning をサポートするための拡張として,当社のフレームワークを実装した。
- 参考スコア(独自算出の注目度): 2.6228228854413356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose AriaNN, a low-interaction privacy-preserving framework for private
neural network training and inference on sensitive data. Our semi-honest
2-party computation protocol (with a trusted dealer) leverages function secret
sharing, a recent lightweight cryptographic protocol that allows us to achieve
an efficient online phase. We design optimized primitives for the building
blocks of neural networks such as ReLU, MaxPool and BatchNorm. For instance, we
perform private comparison for ReLU operations with a single message of the
size of the input during the online phase, and with preprocessing keys close to
4X smaller than previous work. Last, we propose an extension to support n-party
private federated learning. We implement our framework as an extensible system
on top of PyTorch that leverages CPU and GPU hardware acceleration for
cryptographic and machine learning operations. We evaluate our end-to-end
system for private inference between distant servers on standard neural
networks such as AlexNet, VGG16 or ResNet18, and for private training on
smaller networks like LeNet. We show that computation rather than communication
is the main bottleneck and that using GPUs together with reduced key size is a
promising solution to overcome this barrier.
- Abstract(参考訳): AriaNNは、機密データに対するプライベートニューラルネットワークトレーニングと推論のための低干渉プライバシー保護フレームワークである。
当社の半正直な2サードパーティ計算プロトコル(信頼できるディーラー)は,効率的なオンラインフェーズを実現するための,最近の軽量暗号化プロトコルである関数秘密共有を活用しています。
我々は、ReLU、MaxPool、BatchNormといったニューラルネットワークのビルディングブロックに最適化されたプリミティブを設計する。
例えば、オンラインのフェーズで入力のサイズを示す単一のメッセージと、前処理キーが前の作業より4倍小さいプリプロセッシングキーを使って、relu操作のプライベートな比較を行います。
最後に,n-party private federated learning をサポートする拡張を提案する。
我々はこのフレームワークをpytorch上に拡張可能なシステムとして実装し,暗号処理や機械学習操作にcpuとgpuハードウェアアクセラレーションを利用する。
我々は、AlexNet、VGG16、ResNet18などの標準ニューラルネットワーク上での遠隔サーバ間のプライベート推論と、LeNetのような小さなネットワークでのプライベートトレーニングのためのエンドツーエンドシステムの評価を行った。
通信よりも計算が主なボトルネックであり、鍵サイズの削減とともにgpuを使用することが、この障壁を克服するための有望な解決策であることを示す。
関連論文リスト
- Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - DEFER: Distributed Edge Inference for Deep Neural Networks [5.672898304129217]
分散エッジ推論のためのフレームワークであるDEFERを提案する。
ディープニューラルネットワークを複数の計算ノードに分散可能なレイヤに分割する。
ResNet50モデルでは、8ノードのDEFERの推論スループットは53%高く、ノード当たりのエネルギー消費量は1デバイス当たりの推測よりも63%低いことがわかった。
論文 参考訳(メタデータ) (2022-01-18T06:50:45Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - MORSE-STF: A Privacy Preserving Computation System [12.875477499515158]
MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
論文 参考訳(メタデータ) (2021-09-24T03:42:46Z) - Sphynx: ReLU-Efficient Network Design for Private Inference [49.73927340643812]
そこでは、サービスプロバイダのモデルを使用して、ユーザのデータサンプルに対する推論を実行することを目標としています。
ディープネットワークのための既存のPIメソッドは、機能低下の少ない暗号的にセキュアな推論を可能にする。
本稿では,畳み込みセル設計のためのマイクロサーチ手法に基づくReLU効率の高いネットワーク設計手法であるSphynxを提案する。
論文 参考訳(メタデータ) (2021-06-17T18:11:10Z) - CryptGPU: Fast Privacy-Preserving Machine Learning on the GPU [8.633428365391666]
CryptGPUは、GPU上のすべての操作を実装するプライバシー保護機械学習のためのシステムです。
秘密共有された値を浮動小数点演算に埋め込む新しいインタフェースを導入する。
提案プロトコルは,プライベート推論の2倍から8倍,プライベートトレーニングの6倍から36倍の改善を実現している。
論文 参考訳(メタデータ) (2021-04-22T09:21:40Z) - S++: A Fast and Deployable Secure-Computation Framework for
Privacy-Preserving Neural Network Training [0.4893345190925178]
複数のソースからのプライベートデータを使用して、ニューラルネットワーク(NN)をトレーニングするための、シンプルで堅牢でデプロイ可能なフレームワークであるS++を紹介します。
はじめに、すべての共通アクティベーション関数に対して高速かつ検証可能なプロトコルを提供し、それらを秘密の方法で実行するために最適化する。
論文 参考訳(メタデータ) (2021-01-28T15:48:54Z) - POSEIDON: Privacy-Preserving Federated Neural Network Learning [8.103262600715864]
POSEIDONは、プライバシ保護ニューラルネットワークトレーニングの世界で、最初のタイプのものだ。
トレーニングデータ、モデル、評価データの機密性を維持するために、マルチパーティの格子ベースの暗号を用いる。
MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-09-01T11:06:31Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。