論文の概要: DASH: Accelerating Distributed Private Machine Learning Inference with
Arithmetic Garbled Circuits
- arxiv url: http://arxiv.org/abs/2302.06361v1
- Date: Mon, 13 Feb 2023 13:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:20:12.937759
- Title: DASH: Accelerating Distributed Private Machine Learning Inference with
Arithmetic Garbled Circuits
- Title(参考訳): DASH: 算数粒度回路による分散プライベート機械学習推論の高速化
- Authors: Jonas Sander, Sebastian Berndt, Ida Bruhns, Thomas Eisenbarth
- Abstract要約: 高速で分散的なプライベート機械学習推論スキームであるDashを紹介します。
Dashは悪意のある攻撃者に対するセキュリティを提供する。
- 参考スコア(独自算出の注目度): 11.532072946395568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of machine learning solutions is rapidly increasing across all
parts of society. Cloud service providers such as Amazon Web Services,
Microsoft Azure and the Google Cloud Platform aggressively expand their
Machine-Learning-as-a-Service offerings. While the widespread adoption of
machine learning has huge potential for both research and industry, the
large-scale evaluation of possibly sensitive data on untrusted platforms bears
inherent data security and privacy risks. Since computation time is expensive,
performance is a critical factor for machine learning. However, prevailing
security measures proposed in the past years come with a significant
performance overhead. We investigate the current state of protected distributed
machine learning systems, focusing on deep convolutional neural networks. The
most common and best-performing mixed MPC approaches are based on homomorphic
encryption, secret sharing, and garbled circuits. They commonly suffer from
communication overheads that grow linearly in the depth of the neural network.
We present Dash, a fast and distributed private machine learning inference
scheme. Dash is based purely on arithmetic garbled circuits. It requires only a
single communication round per inference step, regardless of the depth of the
neural network, and a very small constant communication volume. Dash thus
significantly reduces performance requirements and scales better than previous
approaches. In addition, we introduce the concept of LabelTensors. This allows
us to efficiently use GPUs while using garbled circuits, which further reduces
the runtime. Dash offers security against a malicious attacker and is up to 140
times faster than previous arithmetic garbling schemes.
- Abstract(参考訳): 機械学習ソリューションの採用は、社会のあらゆる部分で急速に増加している。
Amazon Web Services、Microsoft Azure、Google Cloud Platformなどのクラウドサービスプロバイダは、Machine-Learning-as-a-Serviceサービスを積極的に拡張している。
機械学習の普及は、研究と産業の両方にとって大きな可能性を秘めているが、信頼できないプラットフォーム上の機密データに対する大規模な評価には、固有のデータセキュリティとプライバシリスクが伴う。
計算時間は高価であるため、機械学習ではパフォーマンスが重要な要素である。
しかし、過去数年間に提案された一般的なセキュリティ対策には、大幅なパフォーマンス上のオーバーヘッドが伴う。
深層畳み込みニューラルネットワークに着目し,保護された分散機械学習システムの現状について検討する。
最も一般的で優れた混合MPCアプローチは、同型暗号化、秘密共有、ガーブロード回路に基づいている。
一般的には、ニューラルネットワークの深さで線形に成長する通信オーバーヘッドに苦しむ。
dashは、高速で分散したプライベートな機械学習推論スキームである。
dashは純粋にgarbled回路に基づいている。
ニューラルネットワークの深さや、非常に小さな一定の通信量に関係なく、推論ステップ毎の単一の通信ラウンドのみを必要とする。
これにより、Dashはパフォーマンス要件を大幅に削減し、以前のアプローチよりもスケールが向上する。
また,ラベルテンソルの概念についても紹介する。
これにより、ガーブラード回路を使用しながらGPUを効率的に使用することができ、ランタイムをさらに削減できる。
Dashは悪意のある攻撃者に対するセキュリティを提供する。
関連論文リスト
- Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Network Anomaly Detection Using Federated Learning [0.483420384410068]
我々は、効率的なネットワーク異常検出を可能にする堅牢でスケーラブルなフレームワークを導入する。
複数の参加者が共同でグローバルモデルをトレーニングするフェデレーション学習を活用します。
提案手法はUNSW-NB15データセットのベースライン機械学習手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-13T20:16:30Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Reduced-Order Neural Network Synthesis with Robustness Guarantees [0.0]
機械学習アルゴリズムは、デバイスがユーザのプライバシを改善し、レイテンシを低減し、エネルギー効率を高めるために、ローカルで実行するように適応されている。
この問題に対処するために、より大きなニューロンの入出力マッピングを近似する低次ニューラルネットワーク(ニューロンが少ない)を自動的に合成する手法を導入する。
この近似誤差に対する最悪の境界が得られ、このアプローチは幅広いニューラルネットワークアーキテクチャに適用することができる。
論文 参考訳(メタデータ) (2021-02-18T12:03:57Z) - Robust error bounds for quantised and pruned neural networks [1.8083503268672914]
機械学習のアルゴリズムは、データとアルゴリズムを保存し、訓練し、デバイス上でローカルに分散化しようとしている。
デバイスハードウェアは、このセットアップにおけるモデル機能の主要なボトルネックとなり、スリム化され、より効率的なニューラルネットワークの必要性を生み出します。
半確定プログラムを導入して、ニューラルネットワークのプルーニングや定量化による最悪のケースエラーをバインドする。
計算されたバウンダリは、安全クリティカルなシステムにデプロイした場合に、これらのアルゴリズムの性能に確実性をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-11-30T22:19:44Z) - CLAN: Continuous Learning using Asynchronous Neuroevolution on Commodity
Edge Devices [3.812706195714961]
我々は、NeuroEvolutionary(NE)学習と推論を実行するWiFiを介して通信するRaspberry Piのプロトタイプシステムを構築した。
本研究では,このような協調システムの性能を評価し,システムの異なる配置の計算/通信特性について詳述する。
論文 参考訳(メタデータ) (2020-08-27T01:49:21Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - SuperNet -- An efficient method of neural networks ensembling [0.0]
ニューラルネットワークアンサンブルの主な欠点は、計算的に非常に要求されていることである。
マスター論文の目標は、アンサンブル生成に必要な実行時間を短縮することである。
論文 参考訳(メタデータ) (2020-03-29T13:47:13Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。