論文の概要: PrivQuant: Communication-Efficient Private Inference with Quantized Network/Protocol Co-Optimization
- arxiv url: http://arxiv.org/abs/2410.09531v1
- Date: Sat, 12 Oct 2024 13:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 13:55:04.907913
- Title: PrivQuant: Communication-Efficient Private Inference with Quantized Network/Protocol Co-Optimization
- Title(参考訳): PrivQuant: 量子ネットワーク/プロトコル共最適化による通信効率の良いプライベート推論
- Authors: Tianshi Xu, Shuzhang Zhong, Wenxuan Zeng, Runsheng Wang, Meng Li,
- Abstract要約: 既存のセキュアな2PCフレームワークは、巨大な通信のために高い推論遅延に悩まされる。
2PCベースの量子化推論プロトコルとネットワーク量子化アルゴリズムを協調的に最適化するフレームワークであるPrivQuantを提案する。
PrivQuantは通信を11時間短縮し、2.5times Mathrmと2.8times$が8.7タイム、1.8times Mathrmと2.4times$遅延をSiRNN、COINN、CoPrivと比較した。
- 参考スコア(独自算出の注目度): 2.9203160719029073
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Private deep neural network (DNN) inference based on secure two-party computation (2PC) enables secure privacy protection for both the server and the client. However, existing secure 2PC frameworks suffer from a high inference latency due to enormous communication. As the communication of both linear and non-linear DNN layers reduces with the bit widths of weight and activation, in this paper, we propose PrivQuant, a framework that jointly optimizes the 2PC-based quantized inference protocols and the network quantization algorithm, enabling communication-efficient private inference. PrivQuant proposes DNN architecture-aware optimizations for the 2PC protocols for communication-intensive quantized operators and conducts graph-level operator fusion for communication reduction. Moreover, PrivQuant also develops a communication-aware mixed precision quantization algorithm to improve inference efficiency while maintaining high accuracy. The network/protocol co-optimization enables PrivQuant to outperform prior-art 2PC frameworks. With extensive experiments, we demonstrate PrivQuant reduces communication by $11\times, 2.5\times \mathrm{and}~ 2.8\times$, which results in $8.7\times, 1.8\times ~ \mathrm{and}~ 2.4\times$ latency reduction compared with SiRNN, COINN, and CoPriv, respectively.
- Abstract(参考訳): セキュアな双方向計算(2PC)に基づくプライベートディープニューラルネットワーク(DNN)推論は、サーバとクライアントの両方に対してセキュアなプライバシ保護を可能にする。
しかし、既存のセキュアな2PCフレームワークは、膨大な通信のために高い推論遅延に悩まされている。
本稿では,2PCベースの量子化推論プロトコルとネットワーク量子化アルゴリズムを協調的に最適化し,通信効率のよいプライベート推論を実現するPrivQuantを提案する。
PrivQuantは、通信集約的な量子化演算子のための2PCプロトコルのためのDNNアーキテクチャを意識した最適化を提案し、通信低減のためのグラフレベル演算子融合を実行する。
さらに、PrivQuantは、高精度を維持しながら推論効率を向上させるために、通信対応の混合精度量子化アルゴリズムも開発している。
ネットワーク/プロトコルの共同最適化により、PrivQuantは2PC以前のフレームワークより優れている。
広範な実験により、PrivQuantは通信を111時間短縮し、2.5\times \mathrm{and}~2.8\times$が8.7時間短縮され、1.8\times ~ \mathrm{and}~2.4\times$遅延をSiRNN、COINN、CoPrivと比較した。
関連論文リスト
- PrivCirNet: Efficient Private Inference via Block Circulant Transformation [11.859511840002916]
ホモモルフィック暗号化(HE)ベースのディープニューラルネットワーク(DNN)推論は、データとモデルのプライバシを保護するが、大きな計算オーバーヘッドに悩まされる。
ブロック循環変換に基づくプロトコル/ネットワーク協調最適化フレームワークであるPrivCirNetを提案する。
PrivCirNetはブロック循環変換と完全に互換性のあるHE符号化アルゴリズムをカスタマイズする。
論文 参考訳(メタデータ) (2024-05-23T13:44:48Z) - EQO: Exploring Ultra-Efficient Private Inference with Winograd-Based Protocol and Quantization Co-Optimization [3.1330492824737055]
セキュアな双方向計算(2PC)に基づくプライベート畳み込みニューラルネットワーク(CNN)の推論は、高い通信と遅延オーバーヘッドに悩まされる。
本稿では,CNNと2PCプロトコルを協調的に最適化する量子化2PC推論フレームワークであるEQOを提案する。
広範な実験により、EQOは1.7x、3.6x、6.3xの通信削減を1.29%、1.16%、1.29%の精度で実証した。
論文 参考訳(メタデータ) (2024-04-15T01:41:18Z) - HEQuant: Marrying Homomorphic Encryption and Quantization for
Communication-Efficient Private Inference [2.498379184732383]
HEベースのプロトコルに対して,低精度量子化を意識した最適化を実現するHEQuantを提案する。
CrypTFlow2、Cheetah、Ironなど、従来のHEベースのプロトコルと比較して、HEQuantは3.5sim 23.4times$通信削減を実現している。
論文 参考訳(メタデータ) (2024-01-29T08:59:05Z) - CoPriv: Network/Protocol Co-Optimization for Communication-Efficient Private Inference [13.039573608167077]
セキュアな2つのパーティ(2PC)に基づくディープニューラルネットワーク(DNN)推論は、暗号的にセキュアなプライバシ保護を提供する。
これまでの作業は、通信オーバーヘッドを近似するために、ReLUカウントのプロキシメトリックに大きく依存していました。
2PC推論プロトコルとDNNアーキテクチャを協調的に最適化するフレームワークであるCoPrivを提案する。
論文 参考訳(メタデータ) (2023-11-03T06:19:48Z) - RRNet: Towards ReLU-Reduced Neural Network for Two-party Computation
Based Private Inference [17.299835585861747]
本稿では,MPC比較プロトコルのオーバーヘッドを減らし,ハードウェアアクセラレーションによる計算を高速化するフレームワークRRNetを紹介する。
提案手法は,暗号ビルディングブロックのハードウェア遅延をDNN損失関数に統合し,エネルギー効率,精度,セキュリティ保証を改善する。
論文 参考訳(メタデータ) (2023-02-05T04:02:13Z) - OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - Entanglement Rate Optimization in Heterogeneous Quantum Communication
Networks [79.8886946157912]
量子通信ネットワークは、将来6G以降の通信ネットワークにおいて重要な構成要素となる可能性のある、有望な技術として登場しつつある。
近年の進歩は、実際の量子ハードウェアによる小規模および大規模量子通信ネットワークの展開に繋がった。
量子ネットワークにおいて、絡み合いは異なるノード間でのデータ転送を可能にする鍵となるリソースである。
論文 参考訳(メタデータ) (2021-05-30T11:34:23Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - D2P-Fed: Differentially Private Federated Learning With Efficient
Communication [78.57321932088182]
本稿では,差分プライバシ(DP)と連立学習(FL)におけるコミュニケーション効率を両立させる統一手法を提案する。
特にD2P-Fedは、両方の面を扱う唯一の先行作業と比較して、より強力なプライバシ保証、より良いコンポーザビリティ、より少ない通信コストを提供します。
その結果、D2P-Fedは通信コストの3分の1を節約しつつ、モデル精度の点で最先端の4.7%から13.0%を上回っていることがわかった。
論文 参考訳(メタデータ) (2020-06-22T06:46:11Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - Experimental quantum conference key agreement [55.41644538483948]
量子ネットワークは、世界規模でセキュアな通信を可能にするために、長距離におけるマルチノードの絡み合いを提供する。
ここでは、マルチパーティの絡み合いを利用した量子通信プロトコルである量子会議鍵合意を示す。
我々は4光子グリーンバーガー・ホーネ・ザイリンガー状態(GHZ)を最大50kmの繊維に高輝度の光子対光線源で生成する。
論文 参考訳(メタデータ) (2020-02-04T19:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。