論文の概要: SIRNN: A Math Library for Secure RNN Inference
- arxiv url: http://arxiv.org/abs/2105.04236v1
- Date: Mon, 10 May 2021 10:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:23:45.698410
- Title: SIRNN: A Math Library for Secure RNN Inference
- Title(参考訳): SIRNN:セキュアなRNN推論のための数学ライブラリ
- Authors: Deevashwer Rathee, Mayank Rathee, Rahul Kranti Kiran Goli, Divya
Gupta, Rahul Sharma, Nishanth Chandran, Aseem Rastogi
- Abstract要約: ルックアップテーブルと混合ビット幅に大きく依存する数学関数のための新しい特殊な2PCプロトコルを提供します。
数学関数のプロトコルは、前よりも423倍少ないデータを通信します。
SIRNNはエンドツーエンドのセキュアな2パーティ推論のためのライブラリです。
- 参考スコア(独自算出の注目度): 6.323743920987275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex machine learning (ML) inference algorithms like recurrent neural
networks (RNNs) use standard functions from math libraries like exponentiation,
sigmoid, tanh, and reciprocal of square root. Although prior work on secure
2-party inference provides specialized protocols for convolutional neural
networks (CNNs), existing secure implementations of these math operators rely
on generic 2-party computation (2PC) protocols that suffer from high
communication. We provide new specialized 2PC protocols for math functions that
crucially rely on lookup-tables and mixed-bitwidths to address this performance
overhead; our protocols for math functions communicate up to 423x less data
than prior work. Some of the mixed bitwidth operations used by our math
implementations are (zero and signed) extensions, different forms of
truncations, multiplication of operands of mixed-bitwidths, and digit
decomposition (a generalization of bit decomposition to larger digits). For
each of these primitive operations, we construct specialized 2PC protocols that
are more communication efficient than generic 2PC, and can be of independent
interest. Furthermore, our math implementations are numerically precise, which
ensures that the secure implementations preserve model accuracy of cleartext.
We build on top of our novel protocols to build SIRNN, a library for end-to-end
secure 2-party DNN inference, that provides the first secure implementations of
an RNN operating on time series sensor data, an RNN operating on speech data,
and a state-of-the-art ML architecture that combines CNNs and RNNs for
identifying all heads present in images. Our evaluation shows that SIRNN
achieves up to three orders of magnitude of performance improvement when
compared to inference of these models using an existing state-of-the-art 2PC
framework.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)のような複雑な機械学習(ML)推論アルゴリズムは、指数、シグモノイド、タン、平方根の逆数といった数学ライブラリの標準関数を使用する。
セキュアな2パーティ推論は、畳み込みニューラルネットワーク(CNN)のための特別なプロトコルを提供するが、これらの数学演算子の既存の安全な実装は、高い通信に苦しむ汎用2パーティ計算(2PC)プロトコルに依存している。
私たちは、このパフォーマンス上のオーバーヘッドに対処するためにルックアップテーブルと混合ビット幅に依存する、数学関数のための新しい特別な2pcプロトコルを提供しています。
我々の数学実装で使われる混合ビット幅演算のいくつかは、(ゼロおよび符号付き)拡張、異なる形式の切断、混合ビット幅のオペランドの乗算、および(より大きい桁へのビット分解の一般化)デジット分解である。
これらのプリミティブ操作毎に、汎用2pcよりも通信効率が良く、独立した関心を持つ特殊な2pcプロトコルを構築します。
さらに,本実装は数値的に正確であり,セキュアな実装がクリアテキストのモデル精度を維持することを保証する。
このライブラリは,時系列センサデータで動作するRNN,音声データで動作するRNN,およびCNNとRNNを組み合わせて画像に存在するすべての頭部を識別する最先端のMLアーキテクチャの最初のセキュアな実装を提供する。
評価の結果,既存の2pcフレームワークを用いたモデル推論と比較して,sirnnは最大3桁のパフォーマンス向上を達成していることがわかった。
関連論文リスト
- Enhancing MOTION2NX for Efficient, Scalable and Secure Image Inference using Convolutional Neural Networks [4.407841002228536]
我々は,C++ベースのMOTION2NXフレームワーク上に実装されたABY2.0 SMPCプロトコルを用いて,半正直なセキュリティを備えたセキュア畳み込みニューラルネットワーク(CNN)推論アプリケーションを開発した。
また、各CNN層における計算を複数のチャンクに分割する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-29T09:50:21Z) - OPAF: Optimized Secure Two-Party Computation Protocols for Nonlinear Activation Functions in Recurrent Neural Network [8.825150825838769]
本稿では,二者間設定の半正直モデルにおける非線形関数の実装について,特に注目する。
そこで本研究では,分割・対数戦略を用いた指数関数の新しい,効率的なプロトコルを提案する。
次に,Sigmoid と Tanh の対称性を利用し,入力を微調整して2PC 構築ブロックを小さくする。
論文 参考訳(メタデータ) (2024-03-01T02:49:40Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - Ultra-compact Binary Neural Networks for Human Activity Recognition on
RISC-V Processors [10.195581493173643]
HAR(Human Activity Recognition)は、多くのモバイルアプリケーションにおいて、関連する推論タスクである。
本稿では、ディープニューラルネットワークに基づくHARの新たな実装と、BNN(Binary Neural Networks)の高精度な実装を提案する。
BNNはビット演算をビット演算に置き換えたことにより、メモリフットプリントが非常に小さく、推論の複雑さが低い。
論文 参考訳(メタデータ) (2022-05-25T13:52:35Z) - iRNN: Integer-only Recurrent Neural Network [0.8766022970635899]
精度の高い整数専用リカレントニューラルネットワーク(iRNN)を得るための量子化学習法を提案する。
当社のiRNNは、フル精度のものと同等のパフォーマンスを維持しており、スマートフォンへの展開により、ランタイムのパフォーマンスが2倍、モデルサイズが4倍に向上しています。
論文 参考訳(メタデータ) (2021-09-20T20:17:40Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - CrypTFlow2: Practical 2-Party Secure Inference [10.733878947770283]
CrypTFlow2は、現実的なディープニューラルネットワーク(DNN)に対するセキュアな推論のための暗号フレームワークである
我々は、ResNet50やDenseNet121のようなImageNetスケールのDNNに対して、最初のセキュアな推論を提示する。
CrypTFlow2は、最先端技術よりも、通信の桁違いに少なく、20x-30倍の時間を要する。
論文 参考訳(メタデータ) (2020-10-13T15:12:28Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。