論文の概要: PRISM: Privacy-preserving Inference System with Homomorphic Encryption and Modular Activation
- arxiv url: http://arxiv.org/abs/2511.07807v1
- Date: Wed, 12 Nov 2025 01:20:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.487447
- Title: PRISM: Privacy-preserving Inference System with Homomorphic Encryption and Modular Activation
- Title(参考訳): PRISM: 同型暗号化とモジュールアクティベーションによるプライバシ保護推論システム
- Authors: Zeinab Elkhatib, Ali Sekmen, Kamrul Hasan,
- Abstract要約: ホモモーフィック暗号化(HE)は、暗号化されたデータの計算を可能にするソリューションを提供する。
HEは、非線形アクティベーション機能に依存しているため、畳み込みニューラルネットワーク(CNN)のような機械学習モデルとは相容れないままである。
この研究は、標準非線形関数を準同型互換近似に置き換える最適化されたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.8197459420866039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancements in machine learning, models have become increasingly capable of learning and making predictions in various industries. However, deploying these models in critical infrastructures presents a major challenge, as concerns about data privacy prevent unrestricted data sharing. Homomor- phic encryption (HE) offers a solution by enabling computations on encrypted data, but it remains incompatible with machine learning models like convolutional neural networks (CNNs), due to their reliance on non-linear activation functions. To bridge this gap, this work proposes an optimized framework that replaces standard non-linear functions with homomorphically compatible approximations, ensuring secure computations while minimizing computational overhead. The proposed approach restructures the CNN architecture and introduces an efficient activation function approximation method to mitigate the performance trade-offs in- troduced by encryption. Experiments on CIFAR-10 achieve 94.4% accuracy with 2.42 s per single encrypted sample and 24,000 s per 10,000 encrypted samples, using a degree-4 polynomial and Softplus activation under CKKS, balancing accuracy and privacy.
- Abstract(参考訳): 機械学習の急速な進歩により、モデルは様々な産業で学習や予測を行う能力が高まっている。
しかし、データプライバシに関する懸念がデータ共有の制限を妨げているため、これらのモデルを重要なインフラストラクチャにデプロイすることは大きな課題となる。
ホモモーフィック暗号化(HE)は、暗号化されたデータの計算を可能にするソリューションを提供するが、非線形アクティベーション機能に依存しているため、畳み込みニューラルネットワーク(CNN)のような機械学習モデルと互換性がない。
このギャップを埋めるために、この研究は、標準の非線形関数を同型互換の近似に置き換え、計算オーバーヘッドを最小化しながらセキュアな計算を保証する最適化されたフレームワークを提案する。
提案手法は,CNNアーキテクチャを再構築し,効率的なアクティベーション関数近似法を導入し,暗号化によってトラクションされる性能トレードオフを緩和する。
CIFAR-10の実験では、1つの暗号化サンプルあたり2.42秒、10,000の暗号化サンプルにつき24,000秒の精度で94.4%の精度を達成し、CKKSの次数4多項式とソフトプラスのアクティベーションを用いて精度とプライバシーのバランスをとる。
関連論文リスト
- Design and Optimization of Cloud Native Homomorphic Encryption Workflows for Privacy-Preserving ML Inference [0.0]
ホモモルフィック暗号化(HE)は、暗号化されたデータに対する暗号計算を可能にする魅力的な技術として登場した。
大規模クラウドネイティブパイプラインにおけるHEの統合は、高い計算オーバーヘッド、オーケストレーションの複雑さ、モデル互換性の問題によって制限されている。
本稿では、プライバシML推論をサポートするクラウドネイティブな同型暗号化の設計と最適化のための体系的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-28T15:13:32Z) - Activate Me!: Designing Efficient Activation Functions for Privacy-Preserving Machine Learning with Fully Homomorphic Encryption [0.8901073744693314]
ホモモルフィック暗号化(FHE)は、暗号化されたデータを直接計算することを可能にする。
FHEは本質的に線形演算のみをサポートするため、非線形アクティベーション関数の実装は困難である。
この研究は、FHEベースの機械学習に適したアクティベーション関数の設計、実装、評価に焦点を当てている。
論文 参考訳(メタデータ) (2025-08-15T16:31:12Z) - A Vision-Language Pre-training Model-Guided Approach for Mitigating Backdoor Attacks in Federated Learning [43.847168319564844]
視覚言語事前学習モデルのゼロショット学習機能を利用したFLバックドアディフェンスフレームワークCLIP-Fedを提案する。
本計画では, 防衛効果に課される非IIDの限界を克服し, 事前集約・後防衛戦略を統合する。
論文 参考訳(メタデータ) (2025-08-14T03:39:54Z) - VAE-based Feature Disentanglement for Data Augmentation and Compression in Generalized GNSS Interference Classification [42.14439854721613]
干渉の正確な分類を可能にする重要な潜伏特徴を抽出するために, アンタングル化のための変分オートエンコーダ (VAE) を提案する。
提案するVAEは512から8,192の範囲のデータ圧縮率を実現し,99.92%の精度を実現している。
論文 参考訳(メタデータ) (2025-04-14T13:38:00Z) - Theoretical Insights in Model Inversion Robustness and Conditional Entropy Maximization for Collaborative Inference Systems [89.35169042718739]
協調推論により、クラウドサーバに機密データを公開することなく、エンドユーザは強力なディープラーニングモデルを活用することができる。
近年の研究では、これらの中間機能は、情報が漏洩し、生データをモデル反転攻撃(MIA)によって再構築できるため、プライバシーを十分に保持できないことが判明している。
この研究はまず、与えられた中間特徴の入力の条件エントロピーが、任意のMIAの下での再構成平均二乗誤差(MSE)の保証された下界を与えることを理論的に証明する。
そして、ガウス混合推定に基づいて、この条件付きエントロピーを有界化するための微分可能かつ可解な尺度を導出し、逆ロバスト性を高める条件付きエントロピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-01T07:15:21Z) - FLUE: Federated Learning with Un-Encrypted model weights [0.0]
フェデレートされた学習により、デバイスは、ローカルに保存されたトレーニングデータを保持しながら、共有モデルを協調的にトレーニングすることができる。
最近の研究では、トレーニング中に暗号化されたモデルパラメータを使うことが強調されている。
本稿では,符号化された局所勾配を暗号化なしで活用する,新しいフェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-26T14:04:57Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - Efficient CNN Building Blocks for Encrypted Data [6.955451042536852]
ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
論文 参考訳(メタデータ) (2021-01-30T21:47:23Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。