論文の概要: Optimizing Privacy-Preserving Outsourced Convolutional Neural Network
Predictions
- arxiv url: http://arxiv.org/abs/2002.10944v3
- Date: Mon, 29 Jun 2020 16:52:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:46:26.999454
- Title: Optimizing Privacy-Preserving Outsourced Convolutional Neural Network
Predictions
- Title(参考訳): プライバシ保存型アウトソース畳み込みニューラルネットワーク予測の最適化
- Authors: Minghui Li, Sherman S. M. Chow, Shengshan Hu, Yuejing Yan, Chao Shen,
Qian Wang
- Abstract要約: 近年の研究では、クエリと結果のプライバシに焦点が当てられているが、モデルホストサーバに対してモデルプライバシを提供していない。
本稿では,アウトソース環境でのプライバシ保護型ニューラルネットワーク予測のための新しい手法を提案する。
我々は、秘密の共有とトリプルト生成を伴う2つの非凝固サーバを活用して、重厚暗号の使用を最小限にする。
- 参考スコア(独自算出の注目度): 23.563775490174415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural network is a machine-learning model widely applied in
various prediction tasks, such as computer vision and medical image analysis.
Their great predictive power requires extensive computation, which encourages
model owners to host the prediction service in a cloud platform. Recent
researches focus on the privacy of the query and results, but they do not
provide model privacy against the model-hosting server and may leak partial
information about the results. Some of them further require frequent
interactions with the querier or heavy computation overheads, which discourages
querier from using the prediction service. This paper proposes a new scheme for
privacy-preserving neural network prediction in the outsourced setting, i.e.,
the server cannot learn the query, (intermediate) results, and the model.
Similar to SecureML (S&P'17), a representative work that provides model
privacy, we leverage two non-colluding servers with secret sharing and triplet
generation to minimize the usage of heavyweight cryptography. Further, we adopt
asynchronous computation to improve the throughput, and design garbled circuits
for the non-polynomial activation function to keep the same accuracy as the
underlying network (instead of approximating it). Our experiments on MNIST
dataset show that our scheme achieves an average of 122x, 14.63x, and 36.69x
reduction in latency compared to SecureML, MiniONN (CCS'17), and EzPC
(EuroS&P'19), respectively. For the communication costs, our scheme outperforms
SecureML by 1.09x, MiniONN by 36.69x, and EzPC by 31.32x on average. On the
CIFAR dataset, our scheme achieves a lower latency by a factor of 7.14x and
3.48x compared to MiniONN and EzPC, respectively. Our scheme also provides
13.88x and 77.46x lower communication costs than MiniONN and EzPC on the CIFAR
dataset.
- Abstract(参考訳): 畳み込みニューラルネットワークは、コンピュータビジョンや医療画像解析など、様々な予測タスクに広く適用されている機械学習モデルである。
彼らの大きな予測能力は広範な計算を必要とするため、モデルオーナーはクラウドプラットフォームで予測サービスをホストすることができる。
最近の研究では、クエリと結果のプライバシに重点を置いているが、モデルホストサーバに対するモデルプライバシを提供しておらず、結果に関する部分的な情報を漏洩する可能性がある。
それらの一部は、querierや重い計算オーバーヘッドとの頻繁なインタラクションを必要とするため、querierが予測サービスを使用することを妨げている。
本稿では,アウトソース設定におけるプライバシ保存型ニューラルネットワークの予測手法,すなわち,サーバがクエリを学習できないこと,(中間)結果,モデルを提案する。
モデルプライバシを提供する代表的作業であるSecureML(S&P'17)と同様に、秘密共有とトリプルト生成を備えた2つの非凝固サーバを活用して、重厚暗号の使用を最小限にする。
さらに,スループット向上のために非同期計算を採用し,非ポリノミカルアクティベーション関数のためのガーブラード回路を設計し,基礎となるネットワークと同じ精度(近似の代わりに)を維持する。
MNISTデータセットを用いた実験により, SecureML, MiniONN (CCS'17), EzPC (EuroS&P'19) と比較して平均122x, 14.63x, 36.69xの遅延低減を実現した。
通信コストでは、SecureMLが1.09倍、MiniONNが36.69倍、EzPCが31.32倍である。
CIFARデータセットでは,MiniONNとEzPCと比較して7.14倍,3.48倍のレイテンシを実現する。
また、CIFARデータセット上のMiniONNやEzPCよりも13.88xと77.46x低い通信コストを提供する。
関連論文リスト
- MOFHEI: Model Optimizing Framework for Fast and Efficient Homomorphically Encrypted Neural Network Inference [0.8388591755871735]
ホモモルフィック暗号化(HE)により、暗号化データ上で機械学習タスクを実行できる。
HEに基づくニューラルネットワーク推論を高速かつ効率的にするためのモデルを最適化するフレームワークであるMOFHEIを提案する。
このフレームワークはLeNet上で最大98%のプルーニング比を実現し,PI実行に必要なHE操作の最大93%を排除した。
論文 参考訳(メタデータ) (2024-12-10T22:44:54Z) - Towards Vision Mixture of Experts for Wildlife Monitoring on the Edge [13.112893692624768]
TinyMLのコミュニティは、通信帯域幅と過剰なクラウドストレージコストを節約するための方法を積極的に提案している。
モバイル・ビジョン・トランスフォーマーにおいて、パッチごとの条件付き計算を初めて行う。
The model on Cornell Sap Sucker Woods 60。
論文 参考訳(メタデータ) (2024-11-12T14:36:06Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Hawk: Accurate and Fast Privacy-Preserving Machine Learning Using Secure Lookup Table Computation [11.265356632908846]
直接的なデータ共有のない複数のエンティティからのデータに対する機械学習モデルのトレーニングは、ビジネス、法的、倫理的制約によって妨げられるようなアプリケーションをアンロックすることができる。
我々はロジスティック回帰モデルとニューラルネットワークモデルのための新しいプライバシ保護機械学習プロトコルの設計と実装を行う。
評価の結果,ロジスティック回帰プロトコルは最大9倍高速であり,ニューラルネットワークトレーニングはSecureMLの最大688倍高速であることがわかった。
論文 参考訳(メタデータ) (2024-03-26T00:51:12Z) - Deep Learning for Day Forecasts from Sparse Observations [60.041805328514876]
深層ニューラルネットワークは、気象条件をモデル化するための代替パラダイムを提供する。
MetNet-3は、密度とスパースの両方のデータセンサーから学習し、降水、風、温度、露点を最大24時間前に予測する。
MetNet-3は、それぞれ時間分解能と空間分解能が高く、最大2分と1km、運用遅延は低い。
論文 参考訳(メタデータ) (2023-06-06T07:07:54Z) - DNNAbacus: Toward Accurate Computational Cost Prediction for Deep Neural
Networks [0.9896984829010892]
本稿では,29の古典的ディープニューラルネットワークの計算資源要求を調査し,計算コストを予測するための正確なモデルを構築した。
ネットワーク表現のための新しいネットワーク構造行列を用いた軽量な予測手法DNNAbacusを提案する。
実験の結果, 平均相対誤差 (MRE) は時間に対して0.9%, メモリに関しては2.8%であった。
論文 参考訳(メタデータ) (2022-05-24T14:21:27Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Trust-Based Cloud Machine Learning Model Selection For Industrial IoT
and Smart City Services [5.333802479607541]
クラウドサービスプロバイダがリソース制約のあるデバイスからビッグデータを収集し、機械学習予測モデルを構築するパラダイムを考察する。
提案手法は,MLモデルの信頼度を最大化する知的時間再構成を含む。
その結果,選択したモデルの信頼度は,ILPを用いた結果に比べて0.7%から2.53%低かった。
論文 参考訳(メタデータ) (2020-08-11T23:58:03Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。