論文の概要: FHEON: A Configurable Framework for Developing Privacy-Preserving Neural Networks Using Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2510.03996v1
- Date: Sun, 05 Oct 2025 02:12:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.379117
- Title: FHEON: A Configurable Framework for Developing Privacy-Preserving Neural Networks Using Homomorphic Encryption
- Title(参考訳): FHEON: 均一暗号化を用いたプライバシ保護ニューラルネットワーク構築のための構成可能なフレームワーク
- Authors: Nges Brian Njungle, Eric Jahns, Michel A. Kinsy,
- Abstract要約: ホモモルフィック暗号化(HE)は、データの機密性とセキュリティ上の懸念に対する有望な解決策として登場した。
本稿では、HEを用いた推論のためのプライバシ保護ニューラルネットワークモデルを開発するためのフレームワークであるFHEONを提案する。
コンシューマグレードのCPUでは、FHEON上に構築されたモデルは98.5%の精度で、MNISTでは13秒、CIFAR-10では92.2%の精度で403秒のレイテンシを実現した。
- 参考スコア(独自算出の注目度): 0.09558392439655011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of Machine Learning as a Service raises critical privacy and security concerns, particularly about data confidentiality and trust in both cloud providers and the machine learning models. Homomorphic Encryption (HE) has emerged as a promising solution to this problems, allowing computations on encrypted data without decryption. Despite its potential, existing approaches to integrate HE into neural networks are often limited to specific architectures, leaving a wide gap in providing a framework for easy development of HE-friendly privacy-preserving neural network models similar to what we have in the broader field of machine learning. In this paper, we present FHEON, a configurable framework for developing privacy-preserving convolutional neural network (CNN) models for inference using HE. FHEON introduces optimized and configurable implementations of privacy-preserving CNN layers including convolutional layers, average pooling layers, ReLU activation functions, and fully connected layers. These layers are configured using parameters like input channels, output channels, kernel size, stride, and padding to support arbitrary CNN architectures. We assess the performance of FHEON using several CNN architectures, including LeNet-5, VGG-11, VGG- 16, ResNet-20, and ResNet-34. FHEON maintains encrypted-domain accuracies within +/- 1% of their plaintext counterparts for ResNet-20 and LeNet-5 models. Notably, on a consumer-grade CPU, the models build on FHEON achieved 98.5% accuracy with a latency of 13 seconds on MNIST using LeNet-5, and 92.2% accuracy with a latency of 403 seconds on CIFAR-10 using ResNet-20. Additionally, FHEON operates within a practical memory budget requiring not more than 42.3 GB for VGG-16.
- Abstract(参考訳): マシンラーニング・アズ・ア・サービス(Machine Learning as a Service)の普及は、特にクラウドプロバイダとマシンラーニングモデルの両方に対するデータ機密性と信頼に関する重要なプライバシーとセキュリティ上の懸念を提起する。
ホモモルフィック暗号化(HE)はこの問題に対する有望な解決策として登場し、復号化せずに暗号化されたデータの計算を可能にする。
その可能性にもかかわらず、HEをニューラルネットワークに統合する既存のアプローチは、特定のアーキテクチャに制限されることが多く、マシンラーニングの幅広い分野に共通する、HEフレンドリなプライバシ保護ニューラルネットワークモデルを簡単に開発するためのフレームワークを提供する、という大きなギャップを残している。
本稿では、HEを用いた推論のためのプライバシー保護畳み込みニューラルネットワーク(CNN)モデルを開発するための構成可能なフレームワークであるFHEONを提案する。
FHEONは、畳み込み層、平均プール層、ReLUアクティベーション機能、完全に接続されたレイヤを含む、プライバシー保護のCNNレイヤの最適化および構成可能な実装を導入している。
これらのレイヤは、任意のCNNアーキテクチャをサポートするために、入力チャネル、出力チャネル、カーネルサイズ、ストライド、パディングといったパラメータを使って構成される。
我々は,LeNet-5,VGG-11,VGG-16,ResNet-20,ResNet-34などのCNNアーキテクチャを用いてFHEONの性能を評価する。
FHEONは、ResNet-20とLeNet-5モデルの平文の+/-1%の暗号化ドメインの精度を維持している。
特に、コンシューマグレードのCPUでは、FHEONをベースとしたモデルが98.5%の精度で、LeNet-5を使用してMNISTで13秒、ResNet-20を使ってCIFAR-10で403秒のレイテンシで92.2%の精度を実現している。
さらに、FHEONはVGG-16で42.3GB以上を必要とする実用的なメモリ予算内で動作している。
関連論文リスト
- Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural Networks [4.916646834691489]
スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
論文 参考訳(メタデータ) (2023-08-10T15:26:35Z) - HyPHEN: A Hybrid Packing Method and Optimizations for Homomorphic
Encryption-Based Neural Networks [7.642103082787977]
完全同相暗号(FHE)を用いた畳み込みニューラルネットワーク(CNN)推論は、有望なプライベート推論(PI)ソリューションである。
本稿では、新しい畳み込みアルゴリズムとデータパッキングを組み込んだ深層HCNN構築法であるHyPHENを提案する。
その結果、HyPHENはHCNN CIFAR-10推論のレイテンシを1.4秒(ResNet-20)で実践レベルまで下げ、初めて14.7秒(ResNet-18)でHCNN ImageNet推論を示す。
論文 参考訳(メタデータ) (2023-02-05T15:36:51Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - A Joint Energy and Latency Framework for Transfer Learning over 5G
Industrial Edge Networks [53.26338041079138]
5G産業エッジネットワークのための転送学習対応エッジCNNフレームワークを提案する。
特に、エッジサーバは、既存の画像データセットを使用してcnnを事前トレーニングすることができる。
TLの助けを借りて、トレーニングに参加していないデバイスは、訓練されたエッジCNNモデルをスクラッチからトレーニングせずに微調整するだけです。
論文 参考訳(メタデータ) (2021-04-19T15:13:16Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。