論文の概要: CrypTFlow2: Practical 2-Party Secure Inference
- arxiv url: http://arxiv.org/abs/2010.06457v1
- Date: Tue, 13 Oct 2020 15:12:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:50:33.683302
- Title: CrypTFlow2: Practical 2-Party Secure Inference
- Title(参考訳): CrypTFlow2: 実用的な2要素セキュア推論
- Authors: Deevashwer Rathee, Mayank Rathee, Nishant Kumar, Nishanth Chandran,
Divya Gupta, Aseem Rastogi, Rahul Sharma
- Abstract要約: CrypTFlow2は、現実的なディープニューラルネットワーク(DNN)に対するセキュアな推論のための暗号フレームワークである
我々は、ResNet50やDenseNet121のようなImageNetスケールのDNNに対して、最初のセキュアな推論を提示する。
CrypTFlow2は、最先端技術よりも、通信の桁違いに少なく、20x-30倍の時間を要する。
- 参考スコア(独自算出の注目度): 10.733878947770283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present CrypTFlow2, a cryptographic framework for secure inference over
realistic Deep Neural Networks (DNNs) using secure 2-party computation.
CrypTFlow2 protocols are both correct -- i.e., their outputs are bitwise
equivalent to the cleartext execution -- and efficient -- they outperform the
state-of-the-art protocols in both latency and scale. At the core of
CrypTFlow2, we have new 2PC protocols for secure comparison and division,
designed carefully to balance round and communication complexity for secure
inference tasks. Using CrypTFlow2, we present the first secure inference over
ImageNet-scale DNNs like ResNet50 and DenseNet121. These DNNs are at least an
order of magnitude larger than those considered in the prior work of 2-party
DNN inference. Even on the benchmarks considered by prior work, CrypTFlow2
requires an order of magnitude less communication and 20x-30x less time than
the state-of-the-art.
- Abstract(参考訳): 本稿では,dnn(realial deep neural network)上のセキュアな推論のための暗号フレームワークであるcryptflow2を提案する。
CrypTFlow2プロトコルはどちらも正しい、すなわち出力はクリアテキストの実行とビット単位で等価であり、効率は、レイテンシとスケールの両方で最先端のプロトコルより優れている。
CrypTFlow2のコアには、セキュアな比較と分割のための新しい2PCプロトコルがあり、セキュアな推論タスクのためのラウンドと通信の複雑さのバランスをとるために慎重に設計されています。
cryptflow2 を用いて,resnet50 や densenet121 のような imagenet スケール dnn に対する最初のセキュアな推論を行う。
これらのDNNは、2-party DNN推論の以前の研究で考慮されたものよりも少なくとも1桁大きい。
以前の作業で考慮されたベンチマークでも、CrypTFlow2は通信量が桁違い少なく、最先端の20x-30倍の時間を必要とする。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Optimizing data-flow in Binary Neural Networks [0.0]
本稿では,BNNパイプラインにおけるデータフローと並列性を向上させる新しいトレーニング手法を提案する。
また,ARM命令セットに対するバイナリ直接畳み込みを最適化した実装を提案する。
実験の結果,少なくとも1つの完全精度モデルに対して精度を低下させることなく,推論速度を一貫した改善(最先端の2つのBNNフレームワークと比較して最大1.91と2.73倍)した。
論文 参考訳(メタデータ) (2023-04-03T13:16:33Z) - BiFSMNv2: Pushing Binary Neural Networks for Keyword Spotting to
Real-Network Performance [54.214426436283134]
Deep-FSMNのようなディープニューラルネットワークはキーワードスポッティング(KWS)アプリケーションのために広く研究されている。
我々は、KWS、すなわちBiFSMNv2のための強力で効率的なバイナリニューラルネットワークを提示し、それを実ネットワーク精度のパフォーマンスにプッシュする。
小型アーキテクチャと最適化されたハードウェアカーネルの利点により、BiFSMNv2は25.1倍のスピードアップと20.2倍のストレージ節約を実現できる。
論文 参考訳(メタデータ) (2022-11-13T18:31:45Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - SIRNN: A Math Library for Secure RNN Inference [6.323743920987275]
ルックアップテーブルと混合ビット幅に大きく依存する数学関数のための新しい特殊な2PCプロトコルを提供します。
数学関数のプロトコルは、前よりも423倍少ないデータを通信します。
SIRNNはエンドツーエンドのセキュアな2パーティ推論のためのライブラリです。
論文 参考訳(メタデータ) (2021-05-10T10:04:46Z) - SoFAr: Shortcut-based Fractal Architectures for Binary Convolutional
Neural Networks [7.753767947048147]
バイナリ畳み込みニューラルネットワーク(BCNN)に特化して設計された2つのショートカットベースのフラクタルアーキテクチャ(SoFAr)を提案する。
提案するSoFArは,1つの統一モデルによるショートカットとフラクタルアーキテクチャの採用を組み合わせることで,BCNNのトレーニングに有効である。
以上の結果から,提案したSoFArは,ショートカット方式のBCNNに比べて精度がよいことがわかった。
論文 参考訳(メタデータ) (2020-09-11T10:00:47Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - Term Revealing: Furthering Quantization at Run Time on Quantized DNNs [9.240133036531402]
本稿では,従来の量子化手法で既に定量化されているディープニューラルネットワーク(DNN)の性能向上のために,実行時の量子化を促進させる新しい手法である Term Revealing (TR) を提案する。
TRは値のバイナリ表現において2項のパワーで動作する。
本稿では、少数の制御ビットを用いて従来の量子化とTR対応量子化を無視可能な遅延で切り替えるFPGAの実装を示す。
論文 参考訳(メタデータ) (2020-07-13T14:03:10Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。