論文の概要: Towards Zero Rotation and Beyond: Architecting Neural Networks for Fast Secure Inference with Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2601.21287v1
- Date: Thu, 29 Jan 2026 05:40:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.598367
- Title: Towards Zero Rotation and Beyond: Architecting Neural Networks for Fast Secure Inference with Homomorphic Encryption
- Title(参考訳): ゼロ回転と超越に向けて: 同型暗号化を用いた高速セキュア推論のためのニューラルネットワークの設計
- Authors: Yifei Cai, Yizhou Feng, Qiao Zhang, Chunsheng Xin, Hongyi Wu,
- Abstract要約: プライバシを保存するディープラーニングは、マシンラーニング・アズ・ア・サービスにおけるプライバシー上の懸念に対処する。
ホモモルフィック暗号化(HE)は線形計算に用いられる。
しかし、計算オーバーヘッドは依然として大きな課題である。
- 参考スコア(独自算出の注目度): 13.021126980501686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-preserving deep learning addresses privacy concerns in Machine Learning as a Service (MLaaS) by using Homomorphic Encryption (HE) for linear computations. However, the computational overhead remains a major challenge. While prior work has improved efficiency, most approaches build on models originally designed for plaintext inference. Such models incur architectural inefficiencies when adapted to HE. We argue that substantial gains require networks tailored to HE rather than retrofitting plaintext architectures. Our design has two components: the building block and the overall architecture. First, StriaBlock targets the most expensive HE operation, rotation. It integrates ExRot-Free Convolution and a novel Cross Kernel, eliminating external rotations and requiring only 19% of the internal rotations used by plaintext models. Second, our architectural principles include (i) the Focused Constraint Principle, which limits cost-sensitive factors while preserving flexibility elsewhere, and (ii) the Channel Packing-Aware Scaling Principle, which adapts bottleneck ratios to ciphertext channel capacity that varies with depth. Together, these strategies control both local and end-to-end HE cost, enabling a balanced HE-tailored network. We evaluate the resulting StriaNet across datasets of varying scales, including ImageNet, Tiny ImageNet, and CIFAR-10. At comparable accuracy, StriaNet achieves speedups of 9.78x, 6.01x, and 9.24x on ImageNet, Tiny ImageNet, and CIFAR-10, respectively.
- Abstract(参考訳): プライバシを保存するディープラーニングは、線形計算にホモモルフィック暗号化(HE)を使用することで、MLaaS(Machine Learning as a Service)のプライバシ問題に対処する。
しかし、計算オーバーヘッドは依然として大きな課題である。
以前の作業では効率が向上したが、ほとんどのアプローチは元々平文推論用に設計されたモデルの上に構築されている。
このようなモデルは、HEに適応する際にアーキテクチャ上の非効率を引き起こす。
我々は、プレーンテキストアーキテクチャを再適合させるよりも、HEに適したネットワークを必要とすると論じている。
私たちの設計には、ビルディングブロックと全体的なアーキテクチャという2つのコンポーネントがあります。
まず、StriaBlockは最も高価なHEのローテーションを目標としている。
ExRot-Free Convolutionと新しいクロスカーネルを統合し、外部回転を排除し、平文モデルで使用される内部回転の19%しか必要としない。
第2に,私たちのアーキテクチャ原則には
一 他所の柔軟性を保ちつつ、コスト感受性の要因を制限した集中制約原則
(II)Channel Packing-Aware Scaling Principleは、深さに応じて変化する暗号文のチャネル容量にボトルネック比を適応させる。
これらの戦略は、ローカルとエンドツーエンドのHEコストの両方を制御し、バランスの取れたHE調整ネットワークを可能にする。
我々は、ImageNet、Tiny ImageNet、CIFAR-10など、さまざまなスケールのデータセットで結果のStriaNetを評価する。
同等の精度で、StriaNetはImageNet、Tiny ImageNet、CIFAR-10で9.78x、6.01x、9.24xのスピードアップを達成した。
関連論文リスト
- Toward Practical Privacy-Preserving Convolutional Neural Networks Exploiting Fully Homomorphic Encryption [11.706881389387242]
準同型暗号化(FHE)は、プライベート推論(PI)を実現するための実行可能なアプローチである
FHEのCNNの実装は、主に計算とメモリのオーバーヘッドが大きいため、大きなハードルに直面している。
本稿では、GPU/ASICアクセラレーション、効率的なアクティベーション機能、最適化されたパッキングスキームを含む最適化セットを提案する。
論文 参考訳(メタデータ) (2023-10-25T10:24:35Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Revisiting Residual Networks for Adversarial Robustness: An
Architectural Perspective [22.59262601575886]
残余ネットワークに着目し、トポロジ、カーネルサイズ、アクティベーション、正規化といったアーキテクチャ設計をブロックレベルで検討する。
我々は、モデル容量の幅広い範囲にまたがる、対向的に頑健な残留ネットワークRobostResNetsのポートフォリオを提示する。
論文 参考訳(メタデータ) (2022-12-21T13:19:25Z) - Deep Neural Networks pruning via the Structured Perspective
Regularization [5.061851539114448]
機械学習では、ニューラルネットワーク(ANN)は非常に強力なツールであり、多くのアプリケーションで広く使われている。
ANN(リンク、ノード、チャネル、ldots)のすべての要素と対応する重みが削除される。
問題の性質は本質的に(プルーンの要素とそうでない要素)であるので,オペレーショナルリサーチツールに基づく新たなプルーニング手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T14:58:51Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - Hardware-Centric AutoML for Mixed-Precision Quantization [34.39845532939529]
従来の量子化アルゴリズムは、異なるハードウェアアーキテクチャを無視し、すべてのレイヤを均一に量子化する。
本稿では、強化学習を利用して量子化ポリシーを自動的に決定するハードウェア・アウェア自動量子化(HAQ)フレームワークを紹介する。
本フレームワークは, 固定ビット幅(8ビット)の量子化と比較して, 遅延を1.4-1.95x, エネルギー消費を1.9x削減した。
論文 参考訳(メタデータ) (2020-08-11T17:30:22Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - HourNAS: Extremely Fast Neural Architecture Search Through an Hourglass
Lens [125.39301622207674]
ニューラルアーキテクチャサーチ(英: Neural Architecture Search、NAS)は、アーキテクチャを自動設計する手法である。
本稿では,この問題に対する時間ガラスインスパイアされたアプローチ (HourNAS) を提案する。
ImageNetの実験結果によると、1つのGPUで3時間(0.1日)しか使用できないため、HourNASは77.0%のTop-1精度を実現するアーキテクチャを検索できる。
論文 参考訳(メタデータ) (2020-05-29T08:35:32Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Knapsack Pruning with Inner Distillation [11.04321604965426]
そこで本研究では,プルーンドネットワークの最終精度を最適化する新しいプルーニング手法を提案する。
ネットワークの高レベル構造を維持しながら、ネットワークチャネルを熟考する。
提案手法は,ResNetバックボーンを用いたImageNet,CIFAR-10,CIFAR-100における最先端のプルーニング結果をもたらす。
論文 参考訳(メタデータ) (2020-02-19T16:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。