論文の概要: UniHENN: Designing More Versatile Homomorphic Encryption-based CNNs without im2col
- arxiv url: http://arxiv.org/abs/2402.03060v1
- Date: Mon, 5 Feb 2024 14:52:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 07:48:02.438106
- Title: UniHENN: Designing More Versatile Homomorphic Encryption-based CNNs without im2col
- Title(参考訳): UniHENN:im2colを使わずに、より多彩な同型暗号化ベースのCNNを設計
- Authors: Hyunmin Choi, Jihun Kim, Seungho Kim, Seonhye Park, Jeongyong Park, Wonbin Choi, Hyoungshick Kim,
- Abstract要約: ホモモルフィック暗号化は、復号化せずに暗号化データの計算を可能にする。
UniHENNは、同型暗号化ベースのCNNアーキテクチャであり、im2colの必要性を排除している。
実験の結果,UniHENNは主要な2次元CNN推論アーキテクチャであるPyCrCNNをはるかに上回っていることがわかった。
- 参考スコア(独自算出の注目度): 6.496463706588549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homomorphic encryption enables computations on encrypted data without decryption, which is crucial for privacy-preserving cloud services. However, deploying convolutional neural networks (CNNs) with homomorphic encryption encounters significant challenges, particularly in converting input data into a two-dimensional matrix for convolution, typically achieved using the im2col technique. While efficient, this method limits the variety of deployable CNN models due to compatibility constraints with the encrypted data structure. UniHENN, a homomorphic encryption-based CNN architecture, eliminates the need for im2col, ensuring compatibility with a diverse range of CNN models using homomorphic encryption. Our experiments demonstrate that UniHENN surpasses the leading 2D CNN inference architecture, PyCrCNN, in inference time, as evidenced by its performance on the LeNet-1 dataset, where it averages 30.090 seconds--significantly faster than PyCrCNN's 794.064 seconds. Furthermore, UniHENN outperforms TenSEAL, which employs im2col, in processing concurrent images, an essential feature for high-demand cloud applications. The versatility of UniHENN is proven across various CNN architectures, including 1D and six different 2D CNNs, highlighting its flexibility and efficiency. These qualities establish UniHENN as a promising solution for privacy-preserving, cloud-based CNN services, addressing the increasing demand for scalable, secure, and efficient deep learning in cloud computing environments.
- Abstract(参考訳): ホモモルフィック暗号化は、プライバシ保護クラウドサービスにとって重要な復号化のない暗号化データの計算を可能にする。
しかし、同相暗号を用いた畳み込みニューラルネットワーク(CNN)のデプロイは、特に、インプットデータを畳み込みのための2次元行列に変換する際に、重要な課題に直面する。
この方法は効率的なが、暗号化されたデータ構造との互換性の制約により、デプロイ可能なCNNモデルの多様性を制限する。
UniHENNは、同型暗号に基づくCNNアーキテクチャであり、Im2colの必要性を排除し、同型暗号を用いた様々なCNNモデルとの互換性を確保する。
実験の結果,UniHENNは2次元CNN推論アーキテクチャであるPyCrCNNを平均30.090秒で上回り,PyCrCNNの794.064秒より大幅に高速であることがわかった。
さらに、UniHENNは、高要求のクラウドアプリケーションにとって不可欠な機能である、同時イメージの処理にim2colを使用するTenSEALよりも優れています。
UniHENNの汎用性は、1Dと6つの異なる2D CNNを含むさまざまなCNNアーキテクチャで証明されており、柔軟性と効率性を強調している。
これらの品質は、UniHENNを、クラウドコンピューティング環境におけるスケーラブルでセキュアで効率的なディープラーニングの需要の増加に対処する、プライバシ保護、クラウドベースのCNNサービスの有望なソリューションとして確立している。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - Dynamic Semantic Compression for CNN Inference in Multi-access Edge
Computing: A Graph Reinforcement Learning-based Autoencoder [82.8833476520429]
部分オフロードにおける効果的な意味抽出と圧縮のための新しい意味圧縮手法であるオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
セマンティックエンコーダでは、CNNのチャネルアテンション機構に基づく特徴圧縮モジュールを導入し、最も情報性の高い特徴を選択して中間データを圧縮する。
セマンティックデコーダでは、受信した圧縮データから学習して中間データを再構築し、精度を向上させる軽量デコーダを設計する。
論文 参考訳(メタデータ) (2024-01-19T15:19:47Z) - A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural
Networks [5.274804664403783]
スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
論文 参考訳(メタデータ) (2023-08-10T15:26:35Z) - High-Resolution Convolutional Neural Networks on Homomorphically
Encrypted Data via Sharding Ciphertexts [0.08999666725996974]
我々は,1つの暗号文に格納できる範囲を超えて,大きな次元と多数のチャネルを持つ画像上でDCNNを評価する手法を拡張した。
トレーニングプロセス中に既存のDCNNモデルがどのように正規化され、効率と精度をさらに向上するかを示す。
これらの手法を用いて、高解像度のImageNetデータセット上で高い精度でDCNNを均質に評価し、80.2%の精度でトップ1の精度を達成する。
論文 参考訳(メタデータ) (2023-06-15T15:16:16Z) - Complex Network for Complex Problems: A comparative study of CNN and
Complex-valued CNN [0.0]
複素値畳み込みニューラルネットワーク(CV-CNN)は、複素値入力データの代数構造を保存することができる。
CV-CNNは、トレーニング可能なパラメータの実際の数の観点から、実数値CNNの2倍のトレーニング可能なパラメータを持つ。
本稿では,CNN,CNNx2(CNNの2倍のトレーニングパラメータを持つCNN),CV-CNNの比較検討を行った。
論文 参考訳(メタデータ) (2023-02-09T11:51:46Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - A Novel Sleep Stage Classification Using CNN Generated by an Efficient
Neural Architecture Search with a New Data Processing Trick [4.365107026636095]
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいデータ処理手法を用いて,効率的な5ステップの分類手法を提案する。
我々は、遺伝的アルゴリズム(GA)NASGを最大限に活用して、最高のCNNアーキテクチャを探索する。
我々は,データ処理トリックの収束性を検証するとともに,従来のCNNの性能をそのトリックの前後で比較する。
論文 参考訳(メタデータ) (2021-10-27T10:36:52Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。