論文の概要: SWIFT: Super-fast and Robust Privacy-Preserving Machine Learning
- arxiv url: http://arxiv.org/abs/2005.10296v3
- Date: Wed, 17 Feb 2021 08:47:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 06:16:24.614819
- Title: SWIFT: Super-fast and Robust Privacy-Preserving Machine Learning
- Title(参考訳): SWIFT:超高速でロバストなプライバシー保護機械学習
- Authors: Nishat Koti, Mahak Pancholi, Arpita Patra, Ajith Suresh
- Abstract要約: 本稿では,SOC設定におけるMLアルゴリズムの頑健なフレームワークであるSWIFTを提案する。
SWIFTは、いかなる敵対的行動にも拘わらず、ユーザに出力配信を保証する。
一般的なMLアルゴリズムをベンチマークすることで,フレームワークの実践的妥当性を実証する。
- 参考スコア(独自算出の注目度): 16.17280000789628
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Performing machine learning (ML) computation on private data while
maintaining data privacy, aka Privacy-preserving Machine Learning~(PPML), is an
emergent field of research. Recently, PPML has seen a visible shift towards the
adoption of the Secure Outsourced Computation~(SOC) paradigm due to the heavy
computation that it entails. In the SOC paradigm, computation is outsourced to
a set of powerful and specially equipped servers that provide service on a
pay-per-use basis. In this work, we propose SWIFT, a robust PPML framework for
a range of ML algorithms in SOC setting, that guarantees output delivery to the
users irrespective of any adversarial behaviour. Robustness, a highly desirable
feature, evokes user participation without the fear of denial of service.
At the heart of our framework lies a highly-efficient, maliciously-secure,
three-party computation (3PC) over rings that provides guaranteed output
delivery (GOD) in the honest-majority setting. To the best of our knowledge,
SWIFT is the first robust and efficient PPML framework in the 3PC setting.
SWIFT is as fast as (and is strictly better in some cases than) the best-known
3PC framework BLAZE (Patra et al. NDSS'20), which only achieves fairness. We
extend our 3PC framework for four parties (4PC). In this regime, SWIFT is as
fast as the best known fair 4PC framework Trident (Chaudhari et al. NDSS'20)
and twice faster than the best-known robust 4PC framework FLASH (Byali et al.
PETS'20).
We demonstrate our framework's practical relevance by benchmarking popular ML
algorithms such as Logistic Regression and deep Neural Networks such as VGG16
and LeNet, both over a 64-bit ring in a WAN setting. For deep NN, our results
testify to our claims that we provide improved security guarantee while
incurring no additional overhead for 3PC and obtaining 2x improvement for 4PC.
- Abstract(参考訳): データプライバシを維持しながら、プライベートデータ上で機械学習(ML)計算を実行する、いわゆるプライバシ保護機械学習~(PPML)は、突発的な研究分野である。
近年,PPML は Secure Outsourced Computation~(SOC) パラダイムの採用に向けて,計算量の多いため,目に見えるシフトを経験している。
socパラダイムでは、計算処理は、従量制でサービスを提供する強力で特別な装備のサーバー群にアウトソースされる。
本研究では,SOC設定における様々なMLアルゴリズムに対する堅牢なPPMLフレームワークであるSWIFTを提案する。
非常に望ましい機能であるロバスト性は、サービス拒否を恐れることなく、ユーザ参加を促します。
私たちのフレームワークの核心は、極めて効率が高く、悪質な3つのサードパーティの計算(3PC)がリングの上にあり、誠実なマジョリティ設定で保証された出力配信(GOD)を提供する。
我々の知る限り、SWIFTは3PC設定における最初の堅牢で効率的なPPMLフレームワークです。
SWIFT は最もよく知られている 3PC フレームワーク BLAZE (Patra et al. NDSS'20) と同じくらいの速さ(場合によっては非常に優れている)である。
3PCフレームワークを4つのパーティ(4PC)に拡張します。
この体制では、SWIFT は最もよく知られている4PCフレームワーク Trident (Chaudhari et al. NDSS'20) と同じくらい高速で、最もよく知られている4PCフレームワーク FLASH (Byali et al. PETS'20) の2倍高速である。
WAN設定の64ビットリング上で、ロジスティック回帰やVGG16やLeNetといったディープニューラルネットワークなどの一般的なMLアルゴリズムをベンチマークすることで、我々のフレームワークの実践的妥当性を実証する。
深層nnでは,3pcのオーバヘッドを発生せず,4pcの2倍の改善が得られながら,セキュリティ保証の改善が図られている。
関連論文リスト
- Bypass Back-propagation: Optimization-based Structural Pruning for Large Language Models via Policy Gradient [57.9629676017527]
大規模言語モデルを用いた最適化に基づく構造解析手法を提案する。
我々は,プルーニングモデルの損失を最適化することにより,確率空間におけるプルーニングマスクを直接学習する。
A100 GPUで13Bモデルに対して約35GBのメモリで2.7時間動作させる。
論文 参考訳(メタデータ) (2024-06-15T09:31:03Z) - QUIK: Towards End-to-End 4-Bit Inference on Generative Large Language
Models [57.04178959678024]
重み付けとアクティベーションの両方を4ビットにキャストすることで、大きな生成モデルに対する推論計算の大部分が実行可能であることを示す。
これをQUIKと呼ばれるハイブリッド量子化戦略により実現し、重みとアクティベーションの大部分を4ビットに圧縮する。
我々は、QUIKフォーマットを高効率なレイヤワイドランタイムに適合させるGPUカーネルを提供し、これにより、エンドツーエンドのスループットが3.4倍に向上する。
論文 参考訳(メタデータ) (2023-10-13T17:15:05Z) - Efficient Privacy-Preserving Machine Learning with Lightweight Trusted Hardware [20.21755520998494]
本稿では,小規模な専用セキュリティプロセッサによるセキュアな機械学習推論プラットフォームを提案する。
我々は、最先端の分散プライバシ保存機械学習(PPML)プロトコルと比較して、大幅な性能向上を実現している。
我々の技術は、TEEにおけるセキュアメモリのサイズに制限されず、ResNet18やTransformerのような高容量な現代的なニューラルネットワークをサポートできます。
論文 参考訳(メタデータ) (2022-10-18T20:06:06Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - MPCLeague: Robust MPC Platform for Privacy-Preserving Machine Learning [5.203329540700177]
この論文は、2、3、4パーティで効率的なMPCフレームワークを設計することに焦点を当て、少なくとも1つの汚職とリング構造をサポートする。
それぞれのフレームワークに対して2つのバリエーションを提案し、一方は実行時間を最小化し、もう一方は金銭的コストに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-26T09:25:32Z) - Tetrad: Actively Secure 4PC for Secure Training and Inference [14.318471874603212]
Tetradは、プライバシ保護機械学習のための混合プロトコルフレームワークである。
公正な乗算プロトコルでは、トライデントの最先端プロトコルよりも改善された5つのリング要素のみを通信する必要がある。
Fairフレームワークは、LeNetやVGG16といったディープニューラルネットワークのベンチマークでテストされている。
論文 参考訳(メタデータ) (2021-06-05T09:34:43Z) - Adam in Private: Secure and Fast Training of Deep Neural Networks with
Adaptive Moment Estimation [6.342794803074475]
本稿では,最先端の機械学習アルゴリズムを効率的に評価するフレームワークを提案する。
これは、MLアルゴリズムを「MPCフレンドリ」な変種に置き換える以前のほとんどの作業とは対照的である。
我々は、最先端のサードパーティシステムより優れたセキュアなトレーニングを得る。
論文 参考訳(メタデータ) (2021-06-04T01:40:09Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - BLAZE: Blazing Fast Privacy-Preserving Machine Learning [18.8081326324821]
プライバシ保護機械学習(PPML)は、データのプライバシが保証される場所である。
これは、データのプライバシが保証されるプライバシー保護機械学習(PPML)の領域をモチベートした。
SOC設定では、計算は専門的で強力なクラウドサーバのセットにアウトソースされ、サービスは有償で利用することができる。
論文 参考訳(メタデータ) (2020-05-18T19:18:22Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。