論文の概要: Empowering SMPC: Bridging the Gap Between Scalability, Memory Efficiency
and Privacy in Neural Network Inference
- arxiv url: http://arxiv.org/abs/2310.10133v1
- Date: Mon, 16 Oct 2023 07:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 15:59:17.826019
- Title: Empowering SMPC: Bridging the Gap Between Scalability, Memory Efficiency
and Privacy in Neural Network Inference
- Title(参考訳): SMPCの強化:ニューラルネットワーク推論におけるスケーラビリティ、メモリ効率、プライバシのギャップを埋める
- Authors: Ramya Burra, Anshoo Tandon, Srishti Mittal
- Abstract要約: 我々は、中程度の計算資源を持つマシン上でSMPCのためのABY2.0プロトコルを実装した。
この記事では、セキュアなニューラルネットワーク推論のためのC++ベースのMOTION2NXフレームワークの限界に対処する。
- 参考スコア(独自算出の注目度): 5.09598865497036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to develop an efficient open-source Secure Multi-Party
Computation (SMPC) repository, that addresses the issue of practical and
scalable implementation of SMPC protocol on machines with moderate
computational resources, while aiming to reduce the execution time. We
implement the ABY2.0 protocol for SMPC, providing developers with effective
tools for building applications on the ABY 2.0 protocol. This article addresses
the limitations of the C++ based MOTION2NX framework for secure neural network
inference, including memory constraints and operation compatibility issues. Our
enhancements include optimizing the memory usage, reducing execution time using
a third-party Helper node, and enhancing efficiency while still preserving data
privacy. These optimizations enable MNIST dataset inference in just 32 seconds
with only 0.2 GB of RAM for a 5-layer neural network. In contrast, the previous
baseline implementation required 8.03 GB of RAM and 200 seconds of execution
time.
- Abstract(参考訳): 本稿では,中程度の計算資源を持つマシン上でのSMPCプロトコルの実用的かつスケーラブルな実装の問題に対処しつつ,実行時間を短縮する,効率的なオープンソースSMPCリポジトリを開発することを目的とする。
SMPC用のABY2.0プロトコルを実装し、ABY 2.0プロトコル上でアプリケーションを構築するための効果的なツールを開発者に提供します。
本稿では、メモリ制約や操作互換性の問題を含む、セキュアなニューラルネットワーク推論のためのC++ベースのMOTION2NXフレームワークの制限に対処する。
私たちの拡張には、メモリ使用量の最適化、サードパーティのヘルパーノードによる実行時間の削減、データのプライバシを維持しながら効率の向上などが含まれています。
これらの最適化により、5層ニューラルネットワークのための0.2gbのramでわずか32秒でmnistデータセットの推論が可能になる。
対照的に、以前のベースライン実装では8.03GBのRAMと200秒の実行時間が必要だった。
関連論文リスト
- Enhancing MOTION2NX for Efficient, Scalable and Secure Image Inference using Convolutional Neural Networks [4.407841002228536]
我々は,C++ベースのMOTION2NXフレームワーク上に実装されたABY2.0 SMPCプロトコルを用いて,半正直なセキュリティを備えたセキュア畳み込みニューラルネットワーク(CNN)推論アプリケーションを開発した。
また、各CNN層における計算を複数のチャンクに分割する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-29T09:50:21Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - RRNet: Towards ReLU-Reduced Neural Network for Two-party Computation
Based Private Inference [17.299835585861747]
本稿では,MPC比較プロトコルのオーバーヘッドを減らし,ハードウェアアクセラレーションによる計算を高速化するフレームワークRRNetを紹介する。
提案手法は,暗号ビルディングブロックのハードウェア遅延をDNN損失関数に統合し,エネルギー効率,精度,セキュリティ保証を改善する。
論文 参考訳(メタデータ) (2023-02-05T04:02:13Z) - Pex: Memory-efficient Microcontroller Deep Learning through Partial
Execution [11.336229510791481]
マイクロコントローラ深層学習のための新しい実行パラダイムについて論じる。
ニューラルネットワークの実行を変更して、メモリの完全なバッファーを作らないようにする。
これは演算子のプロパティを利用することで実現され、一度にインプット/アウトプットのごく一部を消費/生産することができる。
論文 参考訳(メタデータ) (2022-11-30T18:47:30Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Efficient Neural Network Deployment for Microcontroller [0.0]
本稿では,マイクロコントローラのための畳み込みニューラルネットワークの展開を探索し,一般化する。
メモリの節約と性能は、ARM Cortex-M CPU用に開発されたCMSIS-NNフレームワークと比較される。
最終的な目的は、トレーニングされたネットワーク重みを持つPyTorchモデルを消費するツールを開発することであり、低メモリ(キロバイトレベル)と限られた計算能力を持つマイクロコントローラのためにC/C++で最適化された推論エンジンとなる。
論文 参考訳(メタデータ) (2020-07-02T19:21:05Z) - TASO: Time and Space Optimization for Memory-Constrained DNN Inference [5.023660118588569]
畳み込みニューラルネットワーク(CNN)は、産業用ロボティクスや自動化システムからモバイルデバイスでの生体認証まで、多くの組み込みアプリケーションで使用されている。
本稿では、畳み込み層を実装するプリミティブ演算を選択するための整数線形計画法(ILP)に基づくCNNモデルの事前ドメイン固有最適化手法を提案する。
論文 参考訳(メタデータ) (2020-05-21T15:08:06Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。