論文の概要: SecONNds: Secure Outsourced Neural Network Inference on ImageNet
- arxiv url: http://arxiv.org/abs/2506.11586v1
- Date: Fri, 13 Jun 2025 08:49:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.723904
- Title: SecONNds: Secure Outsourced Neural Network Inference on ImageNet
- Title(参考訳): SecONNds: ImageNet上のセキュアなアウトソースニューラルネットワーク推論
- Authors: Shashank Balla,
- Abstract要約: 我々は、大規模な画像ネットワーク規模の畳み込みニューラルネットワークに最適化された、侵入的でないセキュアな推論フレームワークSecONNdsを紹介する。
我々の新しいプロトコルは、最先端のソリューションと比較して、非線形操作で17$times$のオンライン高速化を実現している。
SecONNds-Pも提案する。これはビットエクサクサプリタで、検証された完全精度を保証し、セキュアな計算を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of outsourced neural network inference presents significant privacy challenges, as sensitive user data is processed on untrusted remote servers. Secure inference offers a privacy-preserving solution, but existing frameworks suffer from high computational overhead and communication costs, rendering them impractical for real-world deployment. We introduce SecONNds, a non-intrusive secure inference framework optimized for large ImageNet-scale Convolutional Neural Networks. SecONNds integrates a novel fully Boolean Goldreich-Micali-Wigderson (GMW) protocol for secure comparison -- addressing Yao's millionaires' problem -- using preprocessed Beaver's bit triples generated from Silent Random Oblivious Transfer. Our novel protocol achieves an online speedup of 17$\times$ in nonlinear operations compared to state-of-the-art solutions while reducing communication overhead. To further enhance performance, SecONNds employs Number Theoretic Transform (NTT) preprocessing and leverages GPU acceleration for homomorphic encryption operations, resulting in speedups of 1.6$\times$ on CPU and 2.2$\times$ on GPU for linear operations. We also present SecONNds-P, a bit-exact variant that ensures verifiable full-precision results in secure computation, matching the results of plaintext computations. Evaluated on a 37-bit quantized SqueezeNet model, SecONNds achieves an end-to-end inference time of 2.8 s on GPU and 3.6 s on CPU, with a total communication of just 420 MiB. SecONNds' efficiency and reduced computational load make it well-suited for deploying privacy-sensitive applications in resource-constrained environments. SecONNds is open source and can be accessed from: https://github.com/shashankballa/SecONNds.
- Abstract(参考訳): アウトソースされたニューラルネットワーク推論が広く採用されていることで、機密性の高いユーザデータが信頼できないリモートサーバで処理されるため、重大なプライバシー上の問題が発生している。
セキュア推論はプライバシ保護ソリューションを提供するが、既存のフレームワークは高い計算オーバーヘッドと通信コストに悩まされており、現実のデプロイメントでは実用的ではない。
我々は、大規模な画像ネットワーク規模の畳み込みニューラルネットワークに最適化された、侵入的でないセキュアな推論フレームワークSecONNdsを紹介する。
SecONNdsは、Silent Random Oblivious Transferから生成されたBeaverのビットトリプルを前処理して、安全比較(Yaoの億万長者の問題に対処する)のために、新しい完全なBoolean Goldreich-Micali-Wigderson(GMW)プロトコルを統合している。
我々の新しいプロトコルは、通信オーバーヘッドを低減しつつ、最先端のソリューションと比較して、非線形操作において17$\times$のオンライン高速化を実現している。
性能をさらに向上するため、SecONNdsはNTT(Number Theoretic Transform)プリプロセッサを採用し、同型暗号化操作にGPUアクセラレーションを活用し、CPUでは1.6$\times$、リニア操作では2.2$\times$のスピードアップを行う。
また,検証された完全精度を保証し,平文計算の結果と一致させるビットエクサクタンスであるSecONNds-Pを提案する。
37ビットの量子化SqueezeNetモデルで評価すると、SecONNdsはGPUで2.8秒、CPUで3.6秒のエンドツーエンドの推論時間を達成する。
SecONNdsの効率性と計算負荷の低減は、リソース制約のある環境でプライバシに敏感なアプリケーションをデプロイするのに適している。
SecONNdsはオープンソースで、https://github.com/shashankballa/SecONNdsからアクセスできる。
関連論文リスト
- HEQuant: Marrying Homomorphic Encryption and Quantization for
Communication-Efficient Private Inference [2.498379184732383]
HEベースのプロトコルに対して,低精度量子化を意識した最適化を実現するHEQuantを提案する。
CrypTFlow2、Cheetah、Ironなど、従来のHEベースのプロトコルと比較して、HEQuantは3.5sim 23.4times$通信削減を実現している。
論文 参考訳(メタデータ) (2024-01-29T08:59:05Z) - $\Lambda$-Split: A Privacy-Preserving Split Computing Framework for
Cloud-Powered Generative AI [3.363904632882723]
本稿では,計算オフロードを容易にする分割計算フレームワークである$Lambda$-Splitを紹介する。
Lambda$-Splitでは、生成モデル(通常はディープニューラルネットワーク(DNN))が3つのサブモデルに分割され、ユーザのローカルデバイスとクラウドサーバに分散される。
このアーキテクチャにより、隠された層出力のみが送信されることが保証され、プライバシーに敏感な生入力および出力データの外部送信が防止される。
論文 参考訳(メタデータ) (2023-10-23T07:44:04Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - Optimizing Privacy-Preserving Outsourced Convolutional Neural Network
Predictions [23.563775490174415]
近年の研究では、クエリと結果のプライバシに焦点が当てられているが、モデルホストサーバに対してモデルプライバシを提供していない。
本稿では,アウトソース環境でのプライバシ保護型ニューラルネットワーク予測のための新しい手法を提案する。
我々は、秘密の共有とトリプルト生成を伴う2つの非凝固サーバを活用して、重厚暗号の使用を最小限にする。
論文 参考訳(メタデータ) (2020-02-22T08:47:22Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。