論文の概要: High-Throughput and Scalable Secure Inference Protocols for Deep Learning with Packed Secret Sharing
- arxiv url: http://arxiv.org/abs/2601.13041v1
- Date: Mon, 19 Jan 2026 13:23:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.911938
- Title: High-Throughput and Scalable Secure Inference Protocols for Deep Learning with Packed Secret Sharing
- Title(参考訳): 包括秘密共有によるディープラーニングのための高速かつスケーラブルなセキュア推論プロトコル
- Authors: Qinghui Zhang, Xiaojun Chen, Yansong Zhang, Xudong Chen,
- Abstract要約: セキュアなマルチパーティ計算(MPC)に基づく、ほとんどの既存のセキュアなニューラルネットワーク推論プロトコルは、通常、少なくとも4人の参加者をサポートする。
MPCプロトコルは通信オーバーヘッドが大きくなり、ワイド・エリア・ネットワーク(WAN)環境では特に遅延が発生する。
本稿では,半正直な敵に対するニューラルネットワーク推論のための高スループットでスケーラブルなMPCプロトコルを提案する。
- 参考スコア(独自算出の注目度): 9.465540887972102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing secure neural network inference protocols based on secure multi-party computation (MPC) typically support at most four participants, demonstrating severely limited scalability. Liu et al. (USENIX Security'24) presented the first relatively practical approach by utilizing Shamir secret sharing with Mersenne prime fields. However, when processing deeper neural networks such as VGG16, their protocols incur substantial communication overhead, resulting in particularly significant latency in wide-area network (WAN) environments. In this paper, we propose a high-throughput and scalable MPC protocol for neural network inference against semi-honest adversaries in the honest-majority setting. The core of our approach lies in leveraging packed Shamir secret sharing (PSS) to enable parallel computation and reduce communication complexity. The main contributions are three-fold: i) We present a communication-efficient protocol for vector-matrix multiplication, based on our newly defined notion of vector-matrix multiplication-friendly random share tuples. ii) We design the filter packing approach that enables parallel convolution. iii) We further extend all non-linear protocols based on Shamir secret sharing to the PSS-based protocols for achieving parallel non-linear operations. Extensive experiments across various datasets and neural networks demonstrate the superiority of our approach in WAN. Compared to Liu et al. (USENIX Security'24), our scheme reduces the communication upto 5.85x, 11.17x, and 6.83x in offline, online and total communication overhead, respectively. In addition, our scheme is upto 1.59x, 2.61x, and 1.75x faster in offline, online and total running time, respectively.
- Abstract(参考訳): ほとんどの既存のセキュアなニューラルネットワーク推論プロトコルは、セキュアなマルチパーティ計算(MPC)に基づいており、通常、ほとんどの参加者がサポートしており、スケーラビリティが著しく制限されている。
Liu et al (USENIX Security'24) は、シャミールとメルセンヌ素数との秘密共有を活用することで、最初の比較的実践的なアプローチを提示した。
しかしながら、VGG16のようなより深いニューラルネットワークを処理する場合、それらのプロトコルは通信オーバーヘッドを大幅に増加させ、ワイドエリアネットワーク(WAN)環境では特に大きな遅延が発生する。
本稿では,ニューラルネットワーク推論のための高スループットでスケーラブルなMPCプロトコルを提案する。
当社のアプローチの核心は,シャミール秘密共有(PSS)を活用して並列計算を実現し,通信複雑性を低減することである。
主な貢献は3倍です。
i)ベクトル行列乗法に親しみやすいランダム共有タプルの概念に基づいて,ベクトル行列乗法のための通信効率の高いプロトコルを提案する。
二 並列畳み込みを可能にするフィルタパッキング手法を設計する。
三 シャミール秘密共有に基づくすべての非線形プロトコルをPSSベースのプロトコルに拡張し、並列非線形操作を実現する。
様々なデータセットやニューラルネットワークにわたる大規模な実験は、WANにおける我々のアプローチの優位性を実証している。
Liu et al (USENIX Security'24) と比較して、この方式は、オフライン、オンライン、および全通信オーバーヘッドにおいて、それぞれ5.85x、11.17x、6.83xまで通信を削減している。
さらに,オフライン,オンライン,総実行時間のそれぞれ1.59倍,2.61倍,1.75倍の高速化を実現した。
関連論文リスト
- Fundamental Limits of Hierarchical Secure Aggregation with Cyclic User Association [93.46811590752814]
階層型セキュアアグリゲーションは、フェデレートラーニング(FL)によって動機付けられる
本稿では,各ユーザが連続する$B$のリレーに接続される循環型アソシエーションパターンを用いたHSAについて考察する。
勾配符号化にインスパイアされた入力に対するメッセージ設計を含む効率的なアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2025-03-06T15:53:37Z) - Multi-view Multi-label Anomaly Network Traffic Classification based on
MLP-Mixer Neural Network [55.21501819988941]
畳み込みニューラルネットワーク(CNN)に基づく既存のネットワークトラフィック分類は、グローバルな情報関連を無視しながら、トラフィックデータの局所的なパターンを強調することが多い。
本稿では,エンドツーエンドのネットワークトラフィック分類手法を提案する。
論文 参考訳(メタデータ) (2022-10-30T01:52:05Z) - Over-the-Air Split Machine Learning in Wireless MIMO Networks [56.27831295707334]
スプリット機械学習(ML)では、ニューラルネットワーク(NN)の異なるパーティションが異なる計算ノードによって実行される。
通信負担を軽減するため、OAC(Over-the-air calculation)は通信と同時に計算の全てまたは一部を効率的に実装することができる。
論文 参考訳(メタデータ) (2022-10-07T15:39:11Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - High-Throughput Secure Multiparty Computation with an Honest Majority in Various Network Settings [16.242352823823218]
本稿では,セキュアな3次元計算(3PC)と悪意のある4次元計算(4PC)のためのリング上の新しいプロトコルを提案する。
我々のプロトコルは、パフォーマンスを著しく低下させることなく、パーティ間の複数の弱いネットワークリンクを任意に許容する。
これにより、関連する作業に比べてゲート当たりの基本命令の最大半分を必要とすることで、計算の複雑さを著しく低減する。
論文 参考訳(メタデータ) (2022-06-08T09:46:37Z) - Adam in Private: Secure and Fast Training of Deep Neural Networks with
Adaptive Moment Estimation [6.342794803074475]
本稿では,最先端の機械学習アルゴリズムを効率的に評価するフレームワークを提案する。
これは、MLアルゴリズムを「MPCフレンドリ」な変種に置き換える以前のほとんどの作業とは対照的である。
我々は、最先端のサードパーティシステムより優れたセキュアなトレーニングを得る。
論文 参考訳(メタデータ) (2021-06-04T01:40:09Z) - LCP: A Low-Communication Parallelization Method for Fast Neural Network
Inference in Image Recognition [33.581285906182075]
そこで本研究では, ほぼ独立な複数の枝と狭い枝からなるモデルを用いた低通信並列化手法を提案する。
当社では,AWSインスタンス,Raspberry Pi,PYNQボードという,3つの分散システムにLCPモデルをデプロイしています。
LCPモデルは、オリジナルのモデルと比べて56倍と7倍の平均的なスピードアップを達成し、平均的なスピードアップを33倍に改善することができた。
論文 参考訳(メタデータ) (2020-03-13T19:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。