論文の概要: MPC-Pipe: an Efficient Pipeline Scheme for Secure Multi-party Machine Learning Inference
- arxiv url: http://arxiv.org/abs/2209.13643v2
- Date: Tue, 27 Aug 2024 17:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 20:28:28.265174
- Title: MPC-Pipe: an Efficient Pipeline Scheme for Secure Multi-party Machine Learning Inference
- Title(参考訳): MPC-Pipe: セキュアなマルチパーティ機械学習推論のための効率的なパイプラインスキーム
- Authors: Yongqin Wang, Rachit Rajat, Murali Annavaram,
- Abstract要約: 重なり合う計算と通信の手順を慎重に整理することは可能であることを示す。
MPC-Pipeは機械学習ワークロードのトレーニングと推論の両方に効率的なMPCシステムである。
- 参考スコア(独自算出の注目度): 5.7203077366666015
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-party computing (MPC) has been gaining popularity as a secure computing model over the past few years. However, prior works have demonstrated that MPC protocols still pay substantial performance penalties compared to plaintext, particularly when applied to ML algorithms. The overhead is due to added computation and communication costs. Prior studies, as well as our own analysis, found that most MPC protocols today sequentially perform communication and computation. The participating parties must compute on their shares first and then perform data communication to allow the distribution of new secret shares before proceeding to the next computation step. In this work, we show that serialization is unnecessary, particularly in the context of ML computations (both in Convolutional neural networks and in Transformer-based models). We demonstrate that it is possible to carefully orchestrate the computation and communication steps to overlap. We propose MPC-Pipe, an efficient MPC system for both training and inference of ML workloads, which pipelines computations and communications in an MPC protocol during the online phase. MPC-Pipe proposes three pipeline schemes to optimize the online phase of ML in the semi-honest majority adversary setting. We implement MPC-Pipe by augmenting a modified version of CrypTen, which separates online and offline phases. We evaluate the end-to-end system performance benefits of the online phase of MPC using deep neural networks (VGG16, ResNet50) and Transformers using different network settings. We show that MPC-Pipe can improve the throughput and latency of ML workloads.
- Abstract(参考訳): マルチパーティコンピューティング(MPC)は、ここ数年でセキュアなコンピューティングモデルとして人気を集めている。
しかしながら、MPCプロトコルは、特にMLアルゴリズムに適用した場合に、平文と比較してかなりパフォーマンス上のペナルティを被っていることが、以前の研究で証明されている。
オーバーヘッドは計算と通信コストの増大によるものだ。
これまでの研究では、我々の分析と同様に、今日のほとんどのMPCプロトコルが、通信と計算を逐次実行していることがわかった。
参加者はまず自分の株を計算し、次に次の計算ステップに進む前に、新しい秘密株の配布を可能にするためにデータ通信を行う必要がある。
本研究では、特にML計算(畳み込みニューラルネットワークとTransformerベースのモデルの両方)の文脈において、シリアライゼーションは不要であることを示す。
重なり合う計算と通信の手順を慎重に整理することは可能であることを実証する。
MPC-PipeはMLワークロードのトレーニングと推論のための効率的なMPCシステムであり、オンラインフェーズにおけるMPCプロトコルの計算と通信をパイプライン化する。
MPC-Pipe は、ML のオンラインフェーズを半最高多数対逆設定で最適化する3つのパイプラインスキームを提案する。
我々は、オンラインとオフラインのフェーズを分離するCrypTenの修正版を拡張することで、MPC-Pipeを実装します。
我々は、ディープニューラルネットワーク(VGG16, ResNet50)とトランスフォーマーを用いて、異なるネットワーク設定を用いて、MPCのオンラインフェーズのエンドツーエンドシステム性能の利点を評価する。
MPC-PipeはMLワークロードのスループットとレイテンシを向上させることができることを示す。
関連論文リスト
- Low-Latency Privacy-Preserving Deep Learning Design via Secure MPC [31.35072624488929]
セキュアなマルチパーティ計算(MPC)は、プライベート情報をリークすることなく、複数のパーティ間のプライバシ保護計算を容易にする。
本研究は、MPCプロトコルの実行中に不要な通信ラウンドを減らす、低レイテンシな秘密共有ベースのMPC設計を提案する。
論文 参考訳(メタデータ) (2024-07-24T07:01:21Z) - Parameter-Adaptive Approximate MPC: Tuning Neural-Network Controllers without Retraining [50.00291020618743]
この研究は、大規模なデータセットを再計算し、再トレーニングすることなくオンラインチューニングが可能な、新しいパラメータ適応型AMPCアーキテクチャを導入している。
資源制約の厳しいマイクロコントローラ(MCU)を用いた2種類の実カートポールシステムの揺らぎを制御し,パラメータ適応型AMPCの有効性を示す。
これらの貢献は、現実世界のシステムにおけるAMPCの実践的応用に向けた重要な一歩である。
論文 参考訳(メタデータ) (2024-04-08T20:02:19Z) - On Building Myopic MPC Policies using Supervised Learning [0.0]
本稿では,教師付き学習を用いて最適値関数をオフラインで学習する代替戦略について考察する。
これは、非常に短い予測地平線を持つミオピックMPCのコスト・ツー・ゴー関数として使用できる。
論文 参考訳(メタデータ) (2024-01-23T08:08:09Z) - Fast and Private Inference of Deep Neural Networks by Co-designing Activation Functions [26.125340303868335]
現在のアプローチは大きな推論時間に悩まされている。
推論モデルと精度を競合させる新しいトレーニングアルゴリズムを提案する。
我々の評価では、最大2300万のパラメータを持つ大規模モデルにおいて、推論時間の3ドルから110倍のスピードアップが示されています。
論文 参考訳(メタデータ) (2023-06-14T14:38:25Z) - Accelerating Wireless Federated Learning via Nesterov's Momentum and
Distributed Principle Component Analysis [59.127630388320036]
サーバと作業員が無線チャネルを介して未コーディング情報を交換できるようにすることにより、無線連合学習システムについて検討する。
ワーカは、帯域幅に制限のあるチャネルを介して、しばしばサーバにローカルにアップロードするため、ワーカからサーバへのアップリンク送信は、通信ボトルネックとなる。
ワンショット分散原理成分分析(PCA)を利用して通信ボトルネックの次元を縮小する。
論文 参考訳(メタデータ) (2023-03-31T08:41:42Z) - Partitioning Distributed Compute Jobs with Reinforcement Learning and
Graph Neural Networks [58.720142291102135]
大規模な機械学習モデルは、幅広い分野に進歩をもたらしている。
これらのモデルの多くは、単一のマシンでトレーニングするには大きすぎるため、複数のデバイスに分散する必要がある。
スループットやブロッキングレートといったユーザクリティカルな指標に対して,並列化の最大化が準最適であることを示す。
論文 参考訳(メタデータ) (2023-01-31T17:41:07Z) - Fair and Efficient Distributed Edge Learning with Hybrid Multipath TCP [62.81300791178381]
無線による分散エッジ学習のボトルネックは、コンピューティングから通信へと移行した。
DEL用の既存のTCPベースのデータネットワークスキームは、アプリケーションに依存しず、アプリケーション層要求に応じて調整を施さない。
DELのためのモデルベースと深部強化学習(DRL)に基づくMP TCPを組み合わせたハイブリッドマルチパスTCP(MP TCP)を開発した。
論文 参考訳(メタデータ) (2022-11-03T09:08:30Z) - Towards Semantic Communication Protocols: A Probabilistic Logic
Perspective [69.68769942563812]
我々は,NPMを確率論理型言語ProbLogで記述された解釈可能なシンボルグラフに変換することによって構築された意味プロトコルモデル(SPM)を提案する。
その解釈性とメモリ効率を利用して、衝突回避のためのSPM再構成などのいくつかの応用を実演する。
論文 参考訳(メタデータ) (2022-07-08T14:19:36Z) - HD-cos Networks: Efficient Neural Architectures for Secure Multi-Party
Computation [26.67099154998755]
マルチパーティ計算(MPC、Multi-party calculation)は、暗号化の分野の一つで、複数の非解決パーティが関数を安全に計算するためのプロトコルを実行する。
MPC設定下でニューラルネットワークのトレーニングと推論について検討する。
どちらの手法も、MPC設定下での強力な理論的モチベーションと効率的な計算を享受できることを示す。
論文 参考訳(メタデータ) (2021-10-28T21:15:11Z) - Adam in Private: Secure and Fast Training of Deep Neural Networks with
Adaptive Moment Estimation [6.342794803074475]
本稿では,最先端の機械学習アルゴリズムを効率的に評価するフレームワークを提案する。
これは、MLアルゴリズムを「MPCフレンドリ」な変種に置き換える以前のほとんどの作業とは対照的である。
我々は、最先端のサードパーティシステムより優れたセキュアなトレーニングを得る。
論文 参考訳(メタデータ) (2021-06-04T01:40:09Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。