論文の概要: Split HE: Fast Secure Inference Combining Split Learning and Homomorphic
Encryption
- arxiv url: http://arxiv.org/abs/2202.13351v1
- Date: Sun, 27 Feb 2022 12:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 11:11:10.721552
- Title: Split HE: Fast Secure Inference Combining Split Learning and Homomorphic
Encryption
- Title(参考訳): Split HE: スプリット学習と同型暗号化を組み合わせた高速セキュア推論
- Authors: George-Liviu Pereteanu, Amir Alansary, Jonathan Passerat-Palmbach
- Abstract要約: 本研究は,コンピュータビジョンアプリケーションに適用されたニューラルネットワークの高速セキュア推論のための新しいプロトコルを提案する。
これは、クライアントのマシン上で平文でモデルのサブセットをデプロイすることで、オンライン実行の全体的なパフォーマンスを改善することに重点を置いている。
TenSEALを介してSEALを用いてCIFAR-10データセット上でトレーニングされたベンチマークニューラルネットワーク上で,本プロトコルの評価を行い,実行時およびセキュリティ性能について検討した。
- 参考スコア(独自算出の注目度): 2.7479484154385174
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This work presents a novel protocol for fast secure inference of neural
networks applied to computer vision applications. It focuses on improving the
overall performance of the online execution by deploying a subset of the model
weights in plaintext on the client's machine, in the fashion of SplitNNs. We
evaluate our protocol on benchmark neural networks trained on the CIFAR-10
dataset using SEAL via TenSEAL and discuss runtime and security performances.
Empirical security evaluation using Membership Inference and Model Extraction
attacks showed that the protocol was more resilient under the same attacks than
a similar approach also based on SplitNN. When compared to related work, we
demonstrate improvements of 2.5x-10x for the inference time and 14x-290x in
communication costs.
- Abstract(参考訳): 本稿では,コンピュータビジョンアプリケーションに適用するニューラルネットワークの高速セキュアな推論のための新しいプロトコルを提案する。
クライアントのマシン上で平文でモデルの重みのサブセットをデプロイすることで、オンライン実行の全体的なパフォーマンスを改善することに重点を置いている。
TenSEALを介してSEALを用いてCIFAR-10データセット上でトレーニングされたベンチマークニューラルネットワーク上で,本プロトコルを評価する。
メンバシップ推論とモデル抽出アタックを用いた経験的セキュリティ評価では,splitnnをベースとする同様のアプローチよりも,同じアタックでプロトコルがレジリエントであることが判明した。
関連する作業と比較すると、推論時間に2.5x-10x、通信コストに14x-290xの改善を示す。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Design and Prototyping Distributed CNN Inference Acceleration in Edge
Computing [85.74517957717363]
HALPはエッジコンピューティングにおけるエッジデバイス(ED)間のシームレスなコラボレーションを設計することで推論を加速する。
実験により、分散推論HALPはVGG-16に対して1.7倍の推論加速を達成することが示された。
分散推論HALPを用いたモデル選択は,サービスの信頼性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-24T19:48:30Z) - Pruning Adversarially Robust Neural Networks without Adversarial
Examples [27.952904247130263]
敵の強靭性を維持しつつ、頑健なニューラルネットワークを創出する新しい枠組みを提案する。
我々は,Hilbert-Schmidt Information Bottleneck によるプルーンドモデルの正則化とともに,オリジナルのモデルの知識を維持するために,同時自己蒸留とプルーニングを活用する。
論文 参考訳(メタデータ) (2022-10-09T17:48:50Z) - Distributed Deep Learning Inference Acceleration using Seamless
Collaboration in Edge Computing [93.67044879636093]
本稿では,コラボレーティブエッジコンピューティングにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
本研究では,第2エッジサーバ(ES)上のサブタスクの重なり合うゾーンをホストES上で実行し,HALPと命名した新しいタスク協調方式を設計する。
実験結果から,GTX 1080TIとJETSON AGX Xavierでは,単一のタスクに対して1.7-2.0x,バッチ毎に1.7-1.8x,バッチ毎に1.7-1.8x,VGG-16では1.7-2.0xのCNN推論を高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-22T18:39:09Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Speeding up Heterogeneous Federated Learning with Sequentially Trained
Superclients [19.496278017418113]
フェデレートラーニング(FL)は、ローカルなデータ共有を必要とせず、エッジデバイスの協調を可能にすることにより、プライバシに制約のあるシナリオで機械学習モデルをトレーニングすることを可能にする。
このアプローチは、ローカルデータセットとクライアントの計算的不均一性の異なる統計分布のために、いくつかの課題を提起する。
我々は、多種多様なクライアント、すなわちスーパークオリエントの部分グループのシーケンシャルトレーニングを活用して、集中型パラダイムをプライバシに準拠した方法でエミュレートする新しいフレームワークであるFedSeqを提案する。
論文 参考訳(メタデータ) (2022-01-26T12:33:23Z) - Don't Knock! Rowhammer at the Backdoor of DNN Models [19.13129153353046]
Rowhammerをフォールトインジェクション法として用いたモデル上で,実際のハードウェア上で実現したエンドツーエンドのバックドアインジェクション攻撃を提案する。
ハードウェアにおけるリアルなバックドアインジェクション攻撃を実現するために,制約付き最適化に基づく新しいネットワークトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-14T19:43:53Z) - A Deep Value-network Based Approach for Multi-Driver Order Dispatching [55.36656442934531]
そこで本研究では,注文発送のための深層強化学習に基づくソリューションを提案する。
DiDiの配車プラットフォーム上で大規模なオンラインA/Bテストを実施している。
その結果,CVNetは近年提案されているディスパッチ手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-06-08T16:27:04Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。