論文の概要: Accelerating 2PC-based ML with Limited Trusted Hardware
- arxiv url: http://arxiv.org/abs/2009.05566v1
- Date: Fri, 11 Sep 2020 17:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 22:10:00.220423
- Title: Accelerating 2PC-based ML with Limited Trusted Hardware
- Title(参考訳): 信頼できるハードウェアによる2PCベースのMLの高速化
- Authors: Muqsit Nawaz, Aditya Gulati, Kunlong Liu, Vishwajeet Agrawal,
Prabhanjan Ananth and Trinabh Gupta
- Abstract要約: Otakは、2つの非凝固クラウドプロバイダが推論の入力を知らずに機械学習(ML)推論を実行できるようにするシステムである。
Otakは、関数やホモモルフィックなシークレット共有といった最近のプリミティブをML推論にカスタマイズする新しい2PCプロトコルを通じて効率を向上する。
- 参考スコア(独自算出の注目度): 7.080903507706396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the design, implementation, and evaluation of Otak, a
system that allows two non-colluding cloud providers to run machine learning
(ML) inference without knowing the inputs to inference. Prior work for this
problem mostly relies on advanced cryptography such as two-party secure
computation (2PC) protocols that provide rigorous guarantees but suffer from
high resource overhead. Otak improves efficiency via a new 2PC protocol that
(i) tailors recent primitives such as function and homomorphic secret sharing
to ML inference, and (ii) uses trusted hardware in a limited capacity to
bootstrap the protocol. At the same time, Otak reduces trust assumptions on
trusted hardware by running a small code inside the hardware, restricting its
use to a preprocessing step, and distributing trust over heterogeneous trusted
hardware platforms from different vendors. An implementation and evaluation of
Otak demonstrates that its CPU and network overhead converted to a dollar
amount is 5.4$-$385$\times$ lower than state-of-the-art 2PC-based works.
Besides, Otak's trusted computing base (code inside trusted hardware) is only
1,300 lines of code, which is 14.6$-$29.2$\times$ lower than the code-size in
prior trusted hardware-based works.
- Abstract(参考訳): 本稿では,機械学習(ML)を2つのクラウドプロバイダが推論の入力を知らずに実行できるようにするシステムであるOtakの設計,実装,評価について述べる。
この問題に対する以前の作業は、厳密な保証を提供するがリソースオーバヘッドに苦しむ、2パーティのセキュアコンピューティング(2pc)プロトコルのような高度な暗号化に依存している。
otakが新しい2pcプロトコルによる効率向上
(i)関数や準同型秘密共有といった最近のプリミティブをml推論に合わせること、及び
(ii)プロトコルをブートストラップするために、信頼できるハードウェアを限られた容量で使用する。
同時に、Otakは、ハードウェア内で小さなコードを実行し、その使用を前処理ステップに制限し、異なるベンダーから不均一な信頼できるハードウェアプラットフォームに対する信頼を分散することで、信頼できるハードウェアに対する信頼の前提を低減します。
Otakの実装と評価により、CPUとネットワークのオーバーヘッドが5.4$-$385$\times$、最先端の2PCベースの作業よりも低いことが示されている。
さらに、otakのtrusted computing base(trusted hardware内のコード)はわずか1,300行で、以前のtrusted hardwareベースの作業におけるコードサイズよりも14.6$-$29.2$\times$低い。
関連論文リスト
- L2MAC: Large Language Model Automatic Computer for Unbounded Code
Generation [59.36095386978232]
トランスフォーマーベースの大規模言語モデル(LLM)は、基盤となるトランスフォーマーアーキテクチャの固定コンテキストウィンドウによって制約される。
本稿では,L2MACについて述べる。L2MACは,LLMをベースとした,長大かつ一貫したコード生成のための,最初の実用的プログラム自動計算機である。
論文 参考訳(メタデータ) (2023-10-02T16:55:19Z) - Secure and Efficient Two-party Quantum Scalar Product Protocol With
Application to Privacy-preserving Matrix Multiplication [2.770988618353868]
2-party quantum scalar product (S2SP)は、セキュアマルチパーティ計算(SMC)における有望な研究領域である
既存の量子S2SPプロトコルは十分に効率が良くないため、複雑さは通常指数レベルに近い。
本稿では,Fourier状態に基づくセキュアな2パーティ量子スカラー(S2QSP)プロトコルを提案する。
論文 参考訳(メタデータ) (2023-09-23T14:33:46Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor
Abstractions on CPU Architectures [101.36990944099105]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - MPC-Pipe: an Efficient Pipeline Scheme for Secure Multi-party Machine
Learning Inference [3.1853566662905943]
マルチパーティコンピューティング(MPC)は、セキュアなコンピューティングモデルとしてここ数年で人気を集めている。
MPCは、同型暗号化(HE)よりもオーバーヘッドが少なく、ハードウェアベースの信頼できる実行環境よりも堅牢な脅威モデルを持っている。
MPCプロトコルは、機械学習アルゴリズムに適用した場合の平文と比較して、かなりのパフォーマンス上のペナルティを被っている。
論文 参考訳(メタデータ) (2022-09-27T19:16:26Z) - PolyMPCNet: Towards ReLU-free Neural Architecture Search in Two-party
Computation Based Private Inference [23.795457990555878]
プライバシー保護型ディープラーニング(DL)計算を可能にするために,セキュアなマルチパーティ計算(MPC)が議論されている。
MPCは計算オーバーヘッドが非常に高く、大規模システムではその人気を阻害する可能性がある。
本研究では,MPC比較プロトコルとハードウェアアクセラレーションの協調オーバーヘッド削減のための,PolyMPCNetという体系的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-09-20T02:47:37Z) - General Cutting Planes for Bound-Propagation-Based Neural Network
Verification [144.7290035694459]
任意の切削平面制約を加えることができるような境界伝搬手順を一般化する。
MIPソルバは、境界プロパゲーションベースの検証器を強化するために高品質な切削面を生成することができる。
本手法は,oval20ベンチマークを完全解き,oval21ベンチマークの2倍のインスタンスを検証できる最初の検証器である。
論文 参考訳(メタデータ) (2022-08-11T10:31:28Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Perun: Secure Multi-Stakeholder Machine Learning Framework with GPU
Support [1.5362025549031049]
Perunは機密のマルチステークホルダ機械学習のためのフレームワークである。
ハードウェアアクセラレータ(GPUなど)上でMLトレーニングを実行し、セキュリティ保証を提供する。
CIFAR-10と現実世界の医療データセットのMLトレーニング中に、Perunは161倍から1560倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2021-03-31T08:31:07Z) - Quantum copy-protection of compute-and-compare programs in the quantum
random oracle model [74.52678585199014]
計算・比較プログラム(Computer-and-compare program)として知られる回避関数のクラスに対する量子コピー保護スキームを導入する。
我々は,量子乱数オラクルモデル(QROM)において,完全悪意のある敵に対する非自明なセキュリティを実現することを証明した。
補完的な結果として、「セキュアソフトウェアリース」という,ソフトウェア保護の概念の弱さが示される。
論文 参考訳(メタデータ) (2020-09-29T08:41:53Z) - Security Limitations of Classical-Client Delegated Quantum Computing [54.28005879611532]
クライアントは、古典的なチャネルを使用して量子状態をリモートで準備する。
サブモジュールとして$RSP_CC$を採用することで生じるプライバシ損失は、不明である。
特定の$RSP_CC$プロトコルは、少なくともいくつかのコンテキストにおいて量子チャネルを置き換えることができることを示す。
論文 参考訳(メタデータ) (2020-07-03T13:15:13Z) - SWIFT: Super-fast and Robust Privacy-Preserving Machine Learning [16.17280000789628]
本稿では,SOC設定におけるMLアルゴリズムの頑健なフレームワークであるSWIFTを提案する。
SWIFTは、いかなる敵対的行動にも拘わらず、ユーザに出力配信を保証する。
一般的なMLアルゴリズムをベンチマークすることで,フレームワークの実践的妥当性を実証する。
論文 参考訳(メタデータ) (2020-05-20T18:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。