論文の概要: ReDASH: Fast and efficient Scaling in Arithmetic Garbled Circuits for Secure Outsourced Inference
- arxiv url: http://arxiv.org/abs/2506.14489v1
- Date: Tue, 17 Jun 2025 13:09:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.478852
- Title: ReDASH: Fast and efficient Scaling in Arithmetic Garbled Circuits for Secure Outsourced Inference
- Title(参考訳): ReDASH: セキュアなアウトソース推論のための算術的ガーブロード回路の高速かつ効率的なスケーリング
- Authors: Felix Maurer, Jonas Sander, Thomas Eisenbarth,
- Abstract要約: ReDashはDashの算術的なガーブロード回路を拡張し、アウトソース推論をセキュアにするためのより柔軟で効率的なフレームワークを提供する。
ReDashは、残余数システムの一般化されたベース拡張に基づく新しいガーブラードスケーリングガジェットを導入することで、Dashのスケーリング制限を2つのパワーのみに制限する。
ReDashは、Dashと比較して、全体の推論時間において最大33倍のスピードアップを達成する。
- 参考スコア(独自算出の注目度): 5.766453124435101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ReDash extends Dash's arithmetic garbled circuits to provide a more flexible and efficient framework for secure outsourced inference. By introducing a novel garbled scaling gadget based on a generalized base extension for the residue number system, ReDash removes Dash's limitation of scaling exclusively by powers of two. This enables arbitrary scaling factors drawn from the residue number system's modular base, allowing for tailored quantization schemes and more efficient model evaluation. Through the new $\text{ScaleQuant}^+$ quantization mechanism, ReDash supports optimized modular bases that can significantly reduce the overhead of arithmetic operations during convolutional neural network inference. ReDash achieves up to a 33-fold speedup in overall inference time compared to Dash Despite these enhancements, ReDash preserves the robust security guarantees of arithmetic garbling. By delivering both performance gains and quantization flexibility, ReDash expands the practicality of garbled convolutional neural network inference.
- Abstract(参考訳): ReDashはDashの算術的なガーブロード回路を拡張し、アウトソース推論をセキュアにするためのより柔軟で効率的なフレームワークを提供する。
ReDashは、残余数システムの一般化されたベース拡張に基づく新しいガーブラードスケーリングガジェットを導入することで、Dashのスケーリング制限を2つのパワーのみに制限する。
これにより、剰余数系のモジュラーベースから引き出された任意のスケーリング係数が可能となり、量子化スキームの調整とより効率的なモデル評価が可能になる。
新しい$\text{ScaleQuant}^+$量子化メカニズムを通じて、ReDashは、畳み込みニューラルネットワーク推論時の算術演算のオーバーヘッドを大幅に削減できる最適化されたモジュラーベースをサポートする。
ReDashは、これらの拡張にもかかわらず、算術的なギャリングの堅牢なセキュリティ保証を保っている。
パフォーマンスゲインと量子化の柔軟性の両方を提供することで、ReDashはガーブレード畳み込みニューラルネットワーク推論の実用性を拡張する。
関連論文リスト
- Recursive Inference Scaling: A Winning Path to Scalable Inference in Language and Multimodal Systems [21.01887711305712]
本稿では,言語およびマルチモーダルシステムにおける推論時間をスケールするための補完的なプラグインレシピとして,Recursive Inference Scaling (RINS)を紹介した。
RINS はモバイル LLM の最近の "repeat-all-over" (RAO) 戦略など、他の55種類よりも大幅に優れている。
軽量アダプタでは、RINSは非レグレット戦略を提供するため、RINS対応プレトレーニングにより言語モデリングのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2025-02-11T12:11:40Z) - USEFUSE: Uniform Stride for Enhanced Performance in Fused Layer Architecture of Deep Neural Networks [0.6435156676256051]
本研究では,低レイテンシ左から右へのビットシリアル演算を用いた畳み込みのためのSum-of-Products (SOP)ユニットを提案する。
有効メカニズムは、ReLU層の後、非効率な畳み込みを検出し、スキップし、消費電力を最小化する。
ひとつはミッションクリティカルなアプリケーションの応答時間を最小限にすること、もうひとつはリソースに制約のあるデバイスに同じレイテンシでフォーカスすることである。
論文 参考訳(メタデータ) (2024-12-18T11:04:58Z) - PLUM: Improving Inference Efficiency By Leveraging Repetition-Sparsity Trade-Off [2.326200609038491]
量子化とスパシティは、ハードウェア・ソフトウェア・インタフェースにおけるテンソル内の繰り返しとスパシティに変換する重要な技術である。
本稿では,反復スパーシティートレードオフの概念を導入し,推論時の計算効率を説明する。
本稿では、推論システムと量子化を統合し、繰り返しスパーシティトレードオフを利用する統一型協調設計フレームワークPLUMを提案する。
論文 参考訳(メタデータ) (2023-12-04T02:33:53Z) - ReLU and Addition-based Gated RNN [1.484528358552186]
従来のリカレントゲートの乗算とシグモイド関数を加算とReLUアクティベーションで置き換える。
このメカニズムは、シーケンス処理のための長期メモリを維持するために設計されているが、計算コストは削減されている。
論文 参考訳(メタデータ) (2023-08-10T15:18:16Z) - Binarized Spectral Compressive Imaging [59.18636040850608]
ハイパースペクトル画像(HSI)再構成のための既存のディープラーニングモデルは、優れた性能を実現するが、膨大なメモリと計算資源を持つ強力なハードウェアを必要とする。
本稿では,BiSRNet(Biarized Spectral-Redistribution Network)を提案する。
BiSRNetは,提案手法を用いてベースモデルのバイナライズを行う。
論文 参考訳(メタデータ) (2023-05-17T15:36:08Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - WrapNet: Neural Net Inference with Ultra-Low-Resolution Arithmetic [57.07483440807549]
ニューラルネットワークをアキュムレータの低分解能(8ビット)加算に適応させ,32ビットのアキュムレータに匹敵する分類精度を実現する手法を提案する。
ソフトウェアプラットフォームとハードウェアプラットフォームの両方において、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-26T23:18:38Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。