論文の概要: Almost-Free Queue Jumping for Prior Inputs in Private Neural Inference
- arxiv url: http://arxiv.org/abs/2603.12946v1
- Date: Fri, 13 Mar 2026 12:41:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.085389
- Title: Almost-Free Queue Jumping for Prior Inputs in Private Neural Inference
- Title(参考訳): プライベート・ニューラル推論における事前入力のためのほぼ自由なキュージャンプ
- Authors: Qiao Zhang, Minghui Xu, Tingchuang Zhang, Xiuzhen Cheng,
- Abstract要約: PP-MLは暗号プリミティブを統合することで、セキュアなニューラルネットワーク推論を可能にする。
PrivQJは、インプロセッシングスロットのリサイクルを通じて、入力間の共有計算を利用する。
その結果,最先端のPP-MLシステムと比較して,オーバヘッドのオーダー・オブ・マグニチュード低減効果が示された。
- 参考スコア(独自算出の注目度): 14.074510817815538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-Preserving Machine Learning as a Service (PP-MLaaS) enables secure neural network inference by integrating cryptographic primitives such as homomorphic encryption (HE) and multi-party computation (MPC), protecting both client data and server models. Recent mixed-primitive frameworks have significantly improved inference efficiency, yet they process batched inputs sequentially, offering little flexibility for prioritizing urgent requests. Naïve queue jumping introduces considerable computational and communication overhead, increasing non-negligible latency for in-queue inputs. We initiate the study of privacy-preserving queue jumping in batched inference and propose PrivQJ, a novel framework that enables efficient priority handling without degrading overall system performance. PrivQJ exploits shared computation across inputs via in-processing slot recycling, allowing prior inputs to be piggybacked onto ongoing batch computation with almost no additional cryptographic cost. Both theoretical analysis and experimental results demonstrate over an order-of-magnitude reduction in overhead compared to state-of-the-art PP-MLaaS systems.
- Abstract(参考訳): プライバシ保存機械学習・アズ・ア・サービス(PP-MLaaS)は、ホモモルフィック暗号化(HE)やマルチパーティ計算(MPC)といった暗号プリミティブを統合し、クライアントデータとサーバモデルの両方を保護することによって、セキュアなニューラルネットワーク推論を可能にする。
最近の混合プリミティブフレームワークは推論効率を大幅に改善しているが、バッチ入力を順次処理し、緊急要求を優先順位付けするための柔軟性をほとんど提供していない。
ネイブキュージャンプは計算と通信のオーバーヘッドを大幅に増加させ、キュー内入力の非無視レイテンシを増大させる。
バッチ推論におけるプライバシ保護キュージャンプの研究を開始し,システム全体の性能を低下させることなく,効率的な優先度処理を可能にする新しいフレームワークであるPrivQJを提案する。
PrivQJは、インプロセッシングスロットのリサイクルを通じて、入力間の共有計算を利用する。
理論解析と実験結果の両方が、最先端のPP-MLaaSシステムと比較して、オーバーヘッドのオーダー・オブ・マグニチュード低減を実証している。
関連論文リスト
- FlowPrefill: Decoupling Preemption from Prefill Scheduling Granularity to Mitigate Head-of-Line Blocking in LLM Serving [13.856291757420012]
長期にわたる要求はリソースを独占し、より高いプライオリティの要求を遅らせ、TTFT(Time-to-first-token)サービスレベルの違反を広範囲に発生させる。
本稿では,TTFTに最適化されたサービスシステムであるFlowPrefillを提案する。
FlowPrefillは最先端システムと比較して最大出力を最大5.6$times$に改善することを示す。
論文 参考訳(メタデータ) (2026-02-18T16:57:45Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [54.53508601749513]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Homomorphic Encryption-Enabled Federated Learning for Privacy-Preserving Intrusion Detection in Resource-Constrained IoV Networks [20.864048794953664]
本稿では,IoV(Internet-of-Vehicles)におけるフェデレーション学習(FL)ベースの侵入検知システム(IDS)におけるデータプライバシ問題に,限られた計算資源で対処する新しい枠組みを提案する。
まず,同相暗号を用いた高効率なフレームワークを提案し,処理に中央集中型サーバにオフロードを必要とするデータを保護する。
我々は、FLベースのシステムの課題を暗号化データで処理するための効果的なトレーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-07-26T04:19:37Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。