論文の概要: BLAZE: Blazing Fast Privacy-Preserving Machine Learning
- arxiv url: http://arxiv.org/abs/2005.09042v1
- Date: Mon, 18 May 2020 19:18:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:33:08.397612
- Title: BLAZE: Blazing Fast Privacy-Preserving Machine Learning
- Title(参考訳): BLAZE: 高速なプライバシー保護機械学習
- Authors: Arpita Patra and Ajith Suresh
- Abstract要約: プライバシ保護機械学習(PPML)は、データのプライバシが保証される場所である。
これは、データのプライバシが保証されるプライバシー保護機械学習(PPML)の領域をモチベートした。
SOC設定では、計算は専門的で強力なクラウドサーバのセットにアウトソースされ、サービスは有償で利用することができる。
- 参考スコア(独自算出の注目度): 18.8081326324821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning tools have illustrated their potential in many significant
sectors such as healthcare and finance, to aide in deriving useful inferences.
The sensitive and confidential nature of the data, in such sectors, raise
natural concerns for the privacy of data. This motivated the area of
Privacy-preserving Machine Learning (PPML) where privacy of the data is
guaranteed. Typically, ML techniques require large computing power, which leads
clients with limited infrastructure to rely on the method of Secure Outsourced
Computation (SOC). In SOC setting, the computation is outsourced to a set of
specialized and powerful cloud servers and the service is availed on a
pay-per-use basis. In this work, we explore PPML techniques in the SOC setting
for widely used ML algorithms-- Linear Regression, Logistic Regression, and
Neural Networks.
We propose BLAZE, a blazing fast PPML framework in the three server setting
tolerating one malicious corruption over a ring (\Z{\ell}). BLAZE achieves the
stronger security guarantee of fairness (all honest servers get the output
whenever the corrupt server obtains the same). Leveraging an input-independent
preprocessing phase, BLAZE has a fast input-dependent online phase relying on
efficient PPML primitives such as: (i) A dot product protocol for which the
communication in the online phase is independent of the vector size, the first
of its kind in the three server setting; (ii) A method for truncation that
shuns evaluating expensive circuit for Ripple Carry Adders (RCA) and achieves a
constant round complexity. This improves over the truncation method of ABY3
(Mohassel et al., CCS 2018) that uses RCA and consumes a round complexity that
is of the order of the depth of RCA.
An extensive benchmarking of BLAZE for the aforementioned ML algorithms over
a 64-bit ring in both WAN and LAN settings shows massive improvements over
ABY3.
- Abstract(参考訳): 機械学習ツールは、医療や金融など多くの重要な分野において、有用な推論の導出を補助する可能性を示している。
このような分野におけるデータの機密性と機密性は、データのプライバシに対する自然な懸念を引き起こす。
これは、データのプライバシが保証されるプライバシー保護機械学習(PPML)の領域を動機付けている。
通常、ML技術は大規模な計算能力を必要とするため、限られたインフラを持つクライアントはセキュアなアウトソース計算(SOC)の手法に頼ることになる。
SOC設定では、計算は専門的で強力なクラウドサーバのセットにアウトソースされ、サービスは有償で利用することができる。
本研究では、線形回帰、ロジスティック回帰、ニューラルネットワークなど、広く使われているMLアルゴリズムのSOC設定におけるPPMLテクニックについて検討する。
リング上の悪質な汚職を許容する3つのサーバ設定(\Z{\ell})において,高速なPPMLフレームワークであるBLAZEを提案する。
BLAZEは、公正性のより強いセキュリティ保証を達成する(すべての正直なサーバは、腐敗したサーバが同じものを取得するたびに出力を得る)。
BLAZEは入力非依存の事前処理フェーズを利用して、効率的なPPMLプリミティブに依存する高速な入力依存オンラインフェーズを持つ。
(i)オンラインフェーズにおける通信がベクターサイズとは独立なドット製品プロトコルで、3つのサーバ設定においてその種類のうち第1のものをいう。
(ii)ripple carry adders(rca)の高価な回路の評価を回避し、一定のラウンド複雑さを達成するための切断方法。
これにより、rcaを使用するaby3(mohassel et al., ccs 2018)の切断方法が改善され、rcaの深さのオーダーである丸い複雑さが消費される。
前述のMLアルゴリズムに対するBLAZEの大規模なベンチマークでは、WANとLAN設定の両方の64ビットリングがABY3よりも大幅に改善されている。
関連論文リスト
- The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - CURE: Privacy-Preserving Split Learning Done Right [1.388112207221632]
このシナリオには、同型暗号化(HE)ベースのソリューションが存在するが、しばしば禁止的な計算負担を課す。
CUREは、モデルとデータのサーバ側のみを暗号化する新しいシステムである。
CUREは、実行時の16倍の効率で、平文SLと同等の精度を実現できることを示す。
論文 参考訳(メタデータ) (2024-07-12T04:10:19Z) - Towards Compact 3D Representations via Point Feature Enhancement Masked
Autoencoders [52.66195794216989]
本稿では,コンパクトな3D表現を学習するために,ポイント特徴強調マスク付きオートエンコーダ(Point-FEMAE)を提案する。
Point-FEMAEはグローバルブランチとローカルブランチで構成され、潜在意味的特徴をキャプチャする。
本手法は, クロスモーダル方式と比較して, 事前学習効率を著しく向上させる。
論文 参考訳(メタデータ) (2023-12-17T14:17:05Z) - ezDPS: An Efficient and Zero-Knowledge Machine Learning Inference
Pipeline [2.0813318162800707]
我々は,新しい効率的かつゼロ知識の機械学習推論スキームであるezDPSを提案する。
ezDPSはzkMLパイプラインで、データを複数のステージで高精度に処理する。
ezDPSは,全測定値における一般的な回路ベース手法よりも1~3桁効率が高いことを示す。
論文 参考訳(メタデータ) (2022-12-11T06:47:28Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Adam in Private: Secure and Fast Training of Deep Neural Networks with
Adaptive Moment Estimation [6.342794803074475]
本稿では,最先端の機械学習アルゴリズムを効率的に評価するフレームワークを提案する。
これは、MLアルゴリズムを「MPCフレンドリ」な変種に置き換える以前のほとんどの作業とは対照的である。
我々は、最先端のサードパーティシステムより優れたセキュアなトレーニングを得る。
論文 参考訳(メタデータ) (2021-06-04T01:40:09Z) - Lossless Compression of Efficient Private Local Randomizers [55.657133416044104]
Locally Differentially Private (LDP) Reportsは、フェデレーション設定における統計と機械学習の収集に一般的に使用されます。
多くの場合、最もよく知られたldpアルゴリズムは、クライアントデバイスからサーバに強制的に大きなメッセージを送信する必要がある。
これにより、LDPアルゴリズムの通信コストの削減に大きく貢献しています。
論文 参考訳(メタデータ) (2021-02-24T07:04:30Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - SWIFT: Super-fast and Robust Privacy-Preserving Machine Learning [16.17280000789628]
本稿では,SOC設定におけるMLアルゴリズムの頑健なフレームワークであるSWIFTを提案する。
SWIFTは、いかなる敵対的行動にも拘わらず、ユーザに出力配信を保証する。
一般的なMLアルゴリズムをベンチマークすることで,フレームワークの実践的妥当性を実証する。
論文 参考訳(メタデータ) (2020-05-20T18:20:23Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。