論文の概要: FALCON: Honest-Majority Maliciously Secure Framework for Private Deep
Learning
- arxiv url: http://arxiv.org/abs/2004.02229v2
- Date: Mon, 7 Sep 2020 19:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 13:20:29.894482
- Title: FALCON: Honest-Majority Maliciously Secure Framework for Private Deep
Learning
- Title(参考訳): FALCON: プライベートディープラーニングのための安全なフレームワーク
- Authors: Sameer Wagh, Shruti Tople, Fabrice Benhamouda, Eyal Kushilevitz,
Prateek Mittal, Tal Rabin
- Abstract要約: 大規模機械学習モデルの効率的なプライベートトレーニングと推論のためのエンドツーエンドの3要素プロトコルであるFalconを提案する。
i) VGG16(ii)のような高容量ネットワークのサポート、AlexNet(iii)のような複雑なネットワークをトレーニングする上で重要なバッチ正規化のサポート、Falconは悪意のある敵に対する攻撃を中止してセキュリティを保証する。
- 参考スコア(独自算出の注目度): 30.356371760852618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Falcon, an end-to-end 3-party protocol for efficient private
training and inference of large machine learning models. Falcon presents four
main advantages - (i) It is highly expressive with support for high capacity
networks such as VGG16 (ii) it supports batch normalization which is important
for training complex networks such as AlexNet (iii) Falcon guarantees security
with abort against malicious adversaries, assuming an honest majority (iv)
Lastly, Falcon presents new theoretical insights for protocol design that make
it highly efficient and allow it to outperform existing secure deep learning
solutions. Compared to prior art for private inference, we are about 8x faster
than SecureNN (PETS'19) on average and comparable to ABY3 (CCS'18). We are
about 16-200x more communication efficient than either of these. For private
training, we are about 6x faster than SecureNN, 4.4x faster than ABY3 and about
2-60x more communication efficient. Our experiments in the WAN setting show
that over large networks and datasets, compute operations dominate the overall
latency of MPC, as opposed to the communication.
- Abstract(参考訳): 大規模機械学習モデルの効率的なプライベートトレーニングと推論のためのエンドツーエンドのサードパーティプロトコルであるfalconを提案する。
falconの主な利点は4つある。
(i)VGG16などの高容量ネットワークをサポートした表現力が高い。
(ii)alexnetのような複雑なネットワークのトレーニングに重要なバッチ正規化をサポートする
(iii)ファルコンは、正当な多数派と仮定して、悪意のある敵に対して中止してセキュリティを保証する
(iv)最後に、falconはプロトコル設計に関する新たな理論的洞察を提示し、高い効率性と、既存のセキュアなディープラーニングソリューションよりも優れています。
ABY3 (CCS'18) に匹敵する, 従来のプライベート推論技術と比較して, SecureNN (PETS'19) よりも約8倍高速である。
これらよりも通信効率が16~200倍高いのです。
プライベートトレーニングでは、SecureNNの約6倍、ABY3の4.4倍、通信効率は約2~60倍です。
WAN設定実験により,大規模ネットワークやデータセット上では,通信よりもMPC全体のレイテンシが計算処理で支配されていることがわかった。
関連論文リスト
- Falcon: Accelerating Homomorphically Encrypted Convolutions for
Efficient Private Mobile Network Inference [2.7554944859354675]
ホモモルフィック暗号化(HE)ベースの2次元計算(2PC)フレームワークはこれらのネットワークに最適化されておらず、高い推論オーバーヘッドに悩まされている。
HEベースの2PCフレームワークのための効率的な高密度パッキングアルゴリズムであるFalconを提案する。
Falconは、ゼロ・アウェアのグレディ・パッキングアルゴリズムと、奥行きの畳み込みのためのパッキング密度を改善するコミュニケーション・アウェア・オペレーター戦略を備えている。
論文 参考訳(メタデータ) (2023-08-25T05:48:33Z) - Are Large Kernels Better Teachers than Transformers for ConvNets? [82.4742785108714]
本稿では,最近出現した大規模カーネル畳み込みニューラルネットワーク(ConvNets)の新たな魅力を明らかにする。
論文 参考訳(メタデータ) (2023-05-30T21:05:23Z) - BiFSMNv2: Pushing Binary Neural Networks for Keyword Spotting to
Real-Network Performance [54.214426436283134]
Deep-FSMNのようなディープニューラルネットワークはキーワードスポッティング(KWS)アプリケーションのために広く研究されている。
我々は、KWS、すなわちBiFSMNv2のための強力で効率的なバイナリニューラルネットワークを提示し、それを実ネットワーク精度のパフォーマンスにプッシュする。
小型アーキテクチャと最適化されたハードウェアカーネルの利点により、BiFSMNv2は25.1倍のスピードアップと20.2倍のストレージ節約を実現できる。
論文 参考訳(メタデータ) (2022-11-13T18:31:45Z) - Efficient Privacy-Preserving Machine Learning with Lightweight Trusted Hardware [20.21755520998494]
本稿では,小規模な専用セキュリティプロセッサによるセキュアな機械学習推論プラットフォームを提案する。
我々は、最先端の分散プライバシ保存機械学習(PPML)プロトコルと比較して、大幅な性能向上を実現している。
我々の技術は、TEEにおけるセキュアメモリのサイズに制限されず、ResNet18やTransformerのような高容量な現代的なニューラルネットワークをサポートできます。
論文 参考訳(メタデータ) (2022-10-18T20:06:06Z) - BiFSMN: Binary Neural Network for Keyword Spotting [47.46397208920726]
BiFSMNは、KWSのための正確かつ極効率のバイナリニューラルネットワークである。
実世界のエッジハードウェアにおいて,BiFSMNは22.3倍の高速化と15.5倍のストレージ節約を実現可能であることを示す。
論文 参考訳(メタデータ) (2022-02-14T05:16:53Z) - ProgFed: Effective, Communication, and Computation Efficient Federated Learning by Progressive Training [65.68511423300812]
本稿では,効率的なフェデレート学習のためのプログレッシブトレーニングフレームワークであるProgFedを提案する。
ProgFedは計算と双方向通信のコストを本質的に低減し、最終モデルの強力な性能を維持している。
以上の結果から, ProgFed はフルモデルの標準トレーニングと同等の速度で収束することがわかった。
論文 参考訳(メタデータ) (2021-10-11T14:45:00Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Adam in Private: Secure and Fast Training of Deep Neural Networks with
Adaptive Moment Estimation [6.342794803074475]
本稿では,最先端の機械学習アルゴリズムを効率的に評価するフレームワークを提案する。
これは、MLアルゴリズムを「MPCフレンドリ」な変種に置き換える以前のほとんどの作業とは対照的である。
我々は、最先端のサードパーティシステムより優れたセキュアなトレーニングを得る。
論文 参考訳(メタデータ) (2021-06-04T01:40:09Z) - ARIANN: Low-Interaction Privacy-Preserving Deep Learning via Function
Secret Sharing [2.6228228854413356]
AriaNNは、機密データに対するプライベートニューラルネットワークトレーニングと推論のための、低インタラクションのプライバシ保護フレームワークである。
我々は、ReLU、MaxPool、BatchNormといったニューラルネットワークの構築ブロックのためのプリミティブを設計する。
n-party private federated learning をサポートするための拡張として,当社のフレームワークを実装した。
論文 参考訳(メタデータ) (2020-06-08T13:40:27Z) - SWIFT: Super-fast and Robust Privacy-Preserving Machine Learning [16.17280000789628]
本稿では,SOC設定におけるMLアルゴリズムの頑健なフレームワークであるSWIFTを提案する。
SWIFTは、いかなる敵対的行動にも拘わらず、ユーザに出力配信を保証する。
一般的なMLアルゴリズムをベンチマークすることで,フレームワークの実践的妥当性を実証する。
論文 参考訳(メタデータ) (2020-05-20T18:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。