論文の概要: DASH: Accelerating Distributed Private Machine Learning Inference with
Arithmetic Garbled Circuits
- arxiv url: http://arxiv.org/abs/2302.06361v1
- Date: Mon, 13 Feb 2023 13:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:20:12.937759
- Title: DASH: Accelerating Distributed Private Machine Learning Inference with
Arithmetic Garbled Circuits
- Title(参考訳): DASH: 算数粒度回路による分散プライベート機械学習推論の高速化
- Authors: Jonas Sander, Sebastian Berndt, Ida Bruhns, Thomas Eisenbarth
- Abstract要約: 高速で分散的なプライベート機械学習推論スキームであるDashを紹介します。
Dashは悪意のある攻撃者に対するセキュリティを提供する。
- 参考スコア(独自算出の注目度): 11.532072946395568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of machine learning solutions is rapidly increasing across all
parts of society. Cloud service providers such as Amazon Web Services,
Microsoft Azure and the Google Cloud Platform aggressively expand their
Machine-Learning-as-a-Service offerings. While the widespread adoption of
machine learning has huge potential for both research and industry, the
large-scale evaluation of possibly sensitive data on untrusted platforms bears
inherent data security and privacy risks. Since computation time is expensive,
performance is a critical factor for machine learning. However, prevailing
security measures proposed in the past years come with a significant
performance overhead. We investigate the current state of protected distributed
machine learning systems, focusing on deep convolutional neural networks. The
most common and best-performing mixed MPC approaches are based on homomorphic
encryption, secret sharing, and garbled circuits. They commonly suffer from
communication overheads that grow linearly in the depth of the neural network.
We present Dash, a fast and distributed private machine learning inference
scheme. Dash is based purely on arithmetic garbled circuits. It requires only a
single communication round per inference step, regardless of the depth of the
neural network, and a very small constant communication volume. Dash thus
significantly reduces performance requirements and scales better than previous
approaches. In addition, we introduce the concept of LabelTensors. This allows
us to efficiently use GPUs while using garbled circuits, which further reduces
the runtime. Dash offers security against a malicious attacker and is up to 140
times faster than previous arithmetic garbling schemes.
- Abstract(参考訳): 機械学習ソリューションの採用は、社会のあらゆる部分で急速に増加している。
Amazon Web Services、Microsoft Azure、Google Cloud Platformなどのクラウドサービスプロバイダは、Machine-Learning-as-a-Serviceサービスを積極的に拡張している。
機械学習の普及は、研究と産業の両方にとって大きな可能性を秘めているが、信頼できないプラットフォーム上の機密データに対する大規模な評価には、固有のデータセキュリティとプライバシリスクが伴う。
計算時間は高価であるため、機械学習ではパフォーマンスが重要な要素である。
しかし、過去数年間に提案された一般的なセキュリティ対策には、大幅なパフォーマンス上のオーバーヘッドが伴う。
深層畳み込みニューラルネットワークに着目し,保護された分散機械学習システムの現状について検討する。
最も一般的で優れた混合MPCアプローチは、同型暗号化、秘密共有、ガーブロード回路に基づいている。
一般的には、ニューラルネットワークの深さで線形に成長する通信オーバーヘッドに苦しむ。
dashは、高速で分散したプライベートな機械学習推論スキームである。
dashは純粋にgarbled回路に基づいている。
ニューラルネットワークの深さや、非常に小さな一定の通信量に関係なく、推論ステップ毎の単一の通信ラウンドのみを必要とする。
これにより、Dashはパフォーマンス要件を大幅に削減し、以前のアプローチよりもスケールが向上する。
また,ラベルテンソルの概念についても紹介する。
これにより、ガーブラード回路を使用しながらGPUを効率的に使用することができ、ランタイムをさらに削減できる。
Dashは悪意のある攻撃者に対するセキュリティを提供する。
関連論文リスト
- Tempo: Confidentiality Preservation in Cloud-Based Neural Network
Training [8.187538747666203]
クラウドディープラーニングプラットフォームは、計算リソースが不足している顧客に対して、費用対効果の高いディープニューラルネットワーク(DNN)トレーニングを提供する。
近年、研究者は、CPU信頼実行環境(TEE)を活用して、ディープラーニングにおけるデータのプライバシ保護を模索している。
本稿では、TEEと分散GPUと連携するクラウドベースの初のディープラーニングシステムであるTempoについて述べる。
論文 参考訳(メタデータ) (2024-01-21T15:57:04Z) - Hyperdimensional Computing as a Rescue for Efficient Privacy-Preserving
Machine Learning-as-a-Service [9.773163665697057]
ホモモルフィック暗号化(HE)はこの逆問題に対処するための有望な手法である。
HEを使用すると、サービスプロバイダは、暗号化されたデータをクエリとして取り、それを復号することなくモデルを実行することができる。
我々は、超次元コンピューティングが、暗号化データによるプライバシー保護機械学習の救いになることを示した。
論文 参考訳(メタデータ) (2023-08-17T00:25:17Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - Hierarchical Training of Deep Neural Networks Using Early Exiting [50.49194837327223]
深層ニューラルネットワークは、ビジョンタスクに最先端の精度を提供するが、トレーニングにはかなりのリソースを必要とする。
ディープニューラルネットワークは、データを取得するエッジデバイスから遠く離れたクラウドサーバでトレーニングされる。
エッジとクラウドワーカ間の分割アーキテクチャにおいて,早期出口を用いた新しい階層的ニューラルネットワークトレーニング手法が提案されている。
論文 参考訳(メタデータ) (2023-03-04T11:30:16Z) - Collaborative Learning over Wireless Networks: An Introductory Overview [84.09366153693361]
主に、ワイヤレスデバイス間の協調トレーニングに焦点を合わせます。
過去数十年間、多くの分散最適化アルゴリズムが開発されてきた。
データ局所性 – すなわち、各参加デバイスで利用可能なデータがローカルのままである間、共同モデルを協調的にトレーニングすることができる。
論文 参考訳(メタデータ) (2021-12-07T20:15:39Z) - MORSE-STF: A Privacy Preserving Computation System [12.875477499515158]
MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
論文 参考訳(メタデータ) (2021-09-24T03:42:46Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - ARIANN: Low-Interaction Privacy-Preserving Deep Learning via Function
Secret Sharing [2.6228228854413356]
AriaNNは、機密データに対するプライベートニューラルネットワークトレーニングと推論のための、低インタラクションのプライバシ保護フレームワークである。
我々は、ReLU、MaxPool、BatchNormといったニューラルネットワークの構築ブロックのためのプリミティブを設計する。
n-party private federated learning をサポートするための拡張として,当社のフレームワークを実装した。
論文 参考訳(メタデータ) (2020-06-08T13:40:27Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。