論文の概要: S++: A Fast and Deployable Secure-Computation Framework for
Privacy-Preserving Neural Network Training
- arxiv url: http://arxiv.org/abs/2101.12078v1
- Date: Thu, 28 Jan 2021 15:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 21:37:24.209264
- Title: S++: A Fast and Deployable Secure-Computation Framework for
Privacy-Preserving Neural Network Training
- Title(参考訳): S++: プライバシー保護ニューラルネットワークトレーニングのための高速でデプロイ可能なセキュアな計算フレームワーク
- Authors: Prashanthi Ramachandran, Shivam Agarwal, Arup Mondal, Aastha Shah,
Debayan Gupta
- Abstract要約: 複数のソースからのプライベートデータを使用して、ニューラルネットワーク(NN)をトレーニングするための、シンプルで堅牢でデプロイ可能なフレームワークであるS++を紹介します。
はじめに、すべての共通アクティベーション関数に対して高速かつ検証可能なプロトコルを提供し、それらを秘密の方法で実行するために最適化する。
- 参考スコア(独自算出の注目度): 0.4893345190925178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce S++, a simple, robust, and deployable framework for training a
neural network (NN) using private data from multiple sources, using
secret-shared secure function evaluation. In short, consider a virtual third
party to whom every data-holder sends their inputs, and which computes the
neural network: in our case, this virtual third party is actually a set of
servers which individually learn nothing, even with a malicious (but
non-colluding) adversary.
Previous work in this area has been limited to just one specific activation
function: ReLU, rendering the approach impractical for many use-cases. For the
first time, we provide fast and verifiable protocols for all common activation
functions and optimize them for running in a secret-shared manner. The ability
to quickly, verifiably, and robustly compute exponentiation, softmax, sigmoid,
etc., allows us to use previously written NNs without modification, vastly
reducing developer effort and complexity of code. In recent times, ReLU has
been found to converge much faster and be more computationally efficient as
compared to non-linear functions like sigmoid or tanh. However, we argue that
it would be remiss not to extend the mechanism to non-linear functions such as
the logistic sigmoid, tanh, and softmax that are fundamental due to their
ability to express outputs as probabilities and their universal approximation
property. Their contribution in RNNs and a few recent advancements also makes
them more relevant.
- Abstract(参考訳): S++は、秘密共有のセキュア関数評価を使用して、複数のソースからのプライベートデータを使用してニューラルネットワーク(NN)を訓練するためのシンプルで堅牢でデプロイ可能なフレームワークです。
要するに、すべてのデータ所有者が入力を送信し、ニューラルネットワークを計算する仮想サードパーティを考えてみましょう。私たちの場合、この仮想サードパーティは実際には、悪意のある(しかし非クラスタリング)敵であっても、個別に何も学ばないサーバーのセットです。
この領域でのこれまでの作業は、1つの特定のアクティベーション機能(ReLU)に限定されており、多くのユースケースでアプローチが実用的ではない。
はじめに、すべての共通アクティベーション関数に対して高速かつ検証可能なプロトコルを提供し、それらを秘密の方法で実行するために最適化する。
exponentiation、softmax、sgmoidなどの高速で検証可能で、堅牢な計算能力により、以前書かれたnnを変更せずに使用することができ、開発者の労力とコードの複雑さを大幅に削減できます。
近年、ReLUはシグモイドやタンのような非線形関数と比較してはるかに速く収束し、より計算効率が高いことが判明している。
しかし,出力を確率として表現する能力と普遍近似性から,ロジスティックなsgmoid,tanh,softmaxといった非線形関数に機構を拡張しないことは許容できないと論じた。
rnnへの貢献と、最近のいくつかの進歩は、それらをより関連づける。
関連論文リスト
- Enhancing MOTION2NX for Efficient, Scalable and Secure Image Inference using Convolutional Neural Networks [4.407841002228536]
我々は,C++ベースのMOTION2NXフレームワーク上に実装されたABY2.0 SMPCプロトコルを用いて,半正直なセキュリティを備えたセキュア畳み込みニューラルネットワーク(CNN)推論アプリケーションを開発した。
また、各CNN層における計算を複数のチャンクに分割する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-29T09:50:21Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - OPAF: Optimized Secure Two-Party Computation Protocols for Nonlinear Activation Functions in Recurrent Neural Network [8.825150825838769]
本稿では,二者間設定の半正直モデルにおける非線形関数の実装について,特に注目する。
そこで本研究では,分割・対数戦略を用いた指数関数の新しい,効率的なプロトコルを提案する。
次に,Sigmoid と Tanh の対称性を利用し,入力を微調整して2PC 構築ブロックを小さくする。
論文 参考訳(メタデータ) (2024-03-01T02:49:40Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Convolutional Sparse Coding Fast Approximation with Application to
Seismic Reflectivity Estimation [9.005280130480308]
2~5回の反復で畳み込みスパース符号の良好な近似を生成する古典的反復しきい値アルゴリズムの高速化版を提案する。
提案手法の性能は, 合成シナリオと実データシナリオの両方において, 地震インバージョン問題によって実証される。
論文 参考訳(メタデータ) (2021-06-29T12:19:07Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - ARIANN: Low-Interaction Privacy-Preserving Deep Learning via Function
Secret Sharing [2.6228228854413356]
AriaNNは、機密データに対するプライベートニューラルネットワークトレーニングと推論のための、低インタラクションのプライバシ保護フレームワークである。
我々は、ReLU、MaxPool、BatchNormといったニューラルネットワークの構築ブロックのためのプリミティブを設計する。
n-party private federated learning をサポートするための拡張として,当社のフレームワークを実装した。
論文 参考訳(メタデータ) (2020-06-08T13:40:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。