論文の概要: FastFHE: Packing-Scalable and Depthwise-Separable CNN Inference Over FHE
- arxiv url: http://arxiv.org/abs/2511.22434v1
- Date: Thu, 27 Nov 2025 13:14:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.575352
- Title: FastFHE: Packing-Scalable and Depthwise-Separable CNN Inference Over FHE
- Title(参考訳): FastFHE: FHE上のパッケージ・スケーラビリティと詳細分離可能なCNN推論
- Authors: Wenbo Song, Xinxin Fan, Quanliang Jing, Shaoye Luo, Wenqi Wei, Chi Lin, Yunfeng Lu, Ling Liu,
- Abstract要約: 我々はFastFHEを提案し、完全同型暗号よりも高い推論精度でモデル推論を高速化する。
まず、時間とストレージ消費を節約するスケーラブルな暗号文データパッキング方式を提案する。
第3に,暗号文畳み込み層とバッチ正規化層とを余分な乗法深度を伴わずに融合させるBNドット積融合行列が発見された。
- 参考スコア(独自算出の注目度): 8.949311128871928
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The deep learning (DL) has been penetrating daily life in many domains, how to keep the DL model inference secure and sample privacy in an encrypted environment has become an urgent and increasingly important issue for various security-critical applications. To date, several approaches have been proposed based on the Residue Number System variant of the Cheon-Kim-Kim-Song (RNS-CKKS) scheme. However, they all suffer from high latency, which severely limits the applications in real-world tasks. Currently, the research on encrypted inference in deep CNNs confronts three main bottlenecks: i) the time and storage costs of convolution calculation; ii) the time overhead of huge bootstrapping operations; and iii) the consumption of circuit multiplication depth. Towards these three challenges, we in this paper propose an efficient and effective mechanism FastFHE to accelerate the model inference while simultaneously retaining high inference accuracy over fully homomorphic encryption. Concretely, our work elaborates four unique novelties. First, we propose a new scalable ciphertext data-packing scheme to save the time and storage consumptions. Second, we work out a depthwise-separable convolution fashion to degrade the computation load of convolution calculation. Third, we figure out a BN dot-product fusion matrix to merge the ciphertext convolutional layer with the batch-normalization layer without incurring extra multiplicative depth. Last but not least, we adopt the low-degree Legendre polynomial to approximate the nonlinear smooth activation function SiLU under the guarantee of tiny accuracy error before and after encrypted inference. Finally, we execute multi-facet experiments to verify the efficiency and effectiveness of our proposed approach.
- Abstract(参考訳): 深層学習(DL)は多くの領域で日々の生活に浸透しており、暗号化された環境におけるDLモデルの推論とサンプルプライバシの確保は、様々なセキュリティクリティカルなアプリケーションにとって緊急かつますます重要な問題となっている。
現在までに、Cheon-Kim-Kim-Song (RNS-CKKS) スキームの Residue Number System の変種に基づくいくつかのアプローチが提案されている。
しかし、それらはいずれも高いレイテンシに悩まされ、現実世界のタスクにおけるアプリケーションを大幅に制限します。
現在、ディープCNNにおける暗号化推論の研究は、3つの主要なボトルネックに直面している。
一 畳み込み計算の時間及び保管費
二 巨大なブートストラップ作業の時間的オーバーヘッド
三 回路乗算深度の消費
本稿では,この3つの課題に対して,完全同型暗号よりも高い推論精度を維持しつつ,モデル推論を高速化する,効率的かつ効果的な機構を提案する。
具体的には、我々の作品は4つの独特な小説を詳述している。
まず、時間とストレージ消費を節約するスケーラブルな暗号文データパッキング方式を提案する。
第2に,畳み込み計算の計算負荷を低減させるために,深度的に分離可能な畳み込み方式を提案する。
第3に,暗号文畳み込み層とバッチ正規化層とを余分な乗法深度を伴わずに融合させるBNドット積融合行列が発見された。
最後に,低次ルジャンドル多項式を用いて非線形滑らかなアクティベーション関数SiLUを,暗号化された推論前後の精度誤差の保証の下で近似する。
最後に,提案手法の有効性と有効性を検証するために,多面体実験を行った。
関連論文リスト
- Efficient Decoding Methods for Language Models on Encrypted Data [32.58944595512403]
ホモモルフィック暗号化(HE)は、セキュアな推論のために暗号化されたデータの計算を可能にする。
ニューラルテキスト生成にはargmaxやサンプリングのような復号法が必要である。
我々は,従来の手法に比べて暗号操作を減らし,実用的なグリージー復号を可能にする,HEフレンドリーなargmaxアルゴリズムであるCutmaxを導入する。
論文 参考訳(メタデータ) (2025-09-10T08:23:14Z) - EARN: Efficient Inference Acceleration for LLM-based Generative Recommendation by Register Tokens [47.60523011706102]
大規模言語モデルベースの生成レコメンデーション(LLMRec)は目覚ましい成功を収めているが、高い推論遅延に悩まされている。
入力シーケンス境界に配置されたレジスタトークンに情報を圧縮するために,初期層を利用した効率的な推論フレームワークEARNを提案する。
論文 参考訳(メタデータ) (2025-07-01T12:42:06Z) - MOFHEI: Model Optimizing Framework for Fast and Efficient Homomorphically Encrypted Neural Network Inference [0.8388591755871735]
ホモモルフィック暗号化(HE)により、暗号化データ上で機械学習タスクを実行できる。
HEに基づくニューラルネットワーク推論を高速かつ効率的にするためのモデルを最適化するフレームワークであるMOFHEIを提案する。
このフレームワークはLeNet上で最大98%のプルーニング比を実現し,PI実行に必要なHE操作の最大93%を排除した。
論文 参考訳(メタデータ) (2024-12-10T22:44:54Z) - Progressive Mixed-Precision Decoding for Efficient LLM Inference [49.05448842542558]
我々は,デコーディングのメモリバウンドネスに対処するために,プログレッシブ・ミックス・プレシジョン・デコーディング(PMPD)を導入する。
PMPDはfp16モデルの行列ベクトル乗算において1.4$-$12.2$times$ Speedupを達成する。
我々の手法は、fp16モデルよりも3.8$-$8.0$times$、均一量子化アプローチよりも1.54$times$のスループット向上をもたらす。
論文 参考訳(メタデータ) (2024-10-17T11:46:33Z) - Optimized Layerwise Approximation for Efficient Private Inference on Fully Homomorphic Encryption [17.429712940497843]
本研究では、プライバシー保護型ディープニューラルネットワークのための最適化レイヤワイド近似(OLA)フレームワークを提案する。
効率的な近似のために、各アクティベーション関数の実際の入力分布を考慮し、階層的精度を反映する。
その結果、OLA法はResNet-20モデルとResNet-32モデルの推論時間をそれぞれ3.02倍と2.82倍に削減した。
論文 参考訳(メタデータ) (2023-10-16T12:34:47Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - Efficient Pruning for Machine Learning Under Homomorphic Encryption [2.2817485071636376]
プライバシ保護機械学習(PPML)ソリューションが広く普及している。
多くの人は、モデルとデータの機密性を提供する同型暗号化(HE)に頼っているが、大きなレイテンシとメモリ要求のコストがかかる。
我々は、PPML推論のレイテンシとメモリを削減するために、タイルテンソルと呼ばれるパッキング技術の上に、新しいプルーニング手法を含むHE-PExというフレームワークを導入する。
論文 参考訳(メタデータ) (2022-07-07T15:49:24Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。