論文の概要: Activate Me!: Designing Efficient Activation Functions for Privacy-Preserving Machine Learning with Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2508.11575v1
- Date: Fri, 15 Aug 2025 16:31:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:24.146792
- Title: Activate Me!: Designing Efficient Activation Functions for Privacy-Preserving Machine Learning with Fully Homomorphic Encryption
- Title(参考訳): Activate Me!: 完全同型暗号化によるプライバシ保護機械学習のための効率的な活性化関数の設計
- Authors: Nges Brian Njungle, Michel A. Kinsy,
- Abstract要約: ホモモルフィック暗号化(FHE)は、暗号化されたデータを直接計算することを可能にする。
FHEは本質的に線形演算のみをサポートするため、非線形アクティベーション関数の実装は困難である。
この研究は、FHEベースの機械学習に適したアクティベーション関数の設計、実装、評価に焦点を当てている。
- 参考スコア(独自算出の注目度): 0.8901073744693314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing adoption of machine learning in sensitive areas such as healthcare and defense introduces significant privacy and security challenges. These domains demand robust data protection, as models depend on large volumes of sensitive information for both training and inference. Fully Homomorphic Encryption (FHE) presents a compelling solution by enabling computations directly on encrypted data, maintaining confidentiality across the entire machine learning workflow. However, FHE inherently supports only linear operations, making it difficult to implement non-linear activation functions, essential components of modern neural networks. This work focuses on designing, implementing, and evaluating activation functions tailored for FHE-based machine learning. We investigate two commonly used functions: the Square function and Rectified Linear Unit (ReLU), using LeNet-5 and ResNet-20 architectures with the CKKS scheme from the OpenFHE library. For ReLU, we assess two methods: a conventional low-degree polynomial approximation and a novel scheme-switching technique that securely evaluates ReLU under FHE constraints. Our findings show that the Square function performs well in shallow networks like LeNet-5, achieving 99.4% accuracy with 128 seconds per image. In contrast, deeper models like ResNet-20 benefit more from ReLU. The polynomial approximation yields 83.8% accuracy with 1,145 seconds per image, while our scheme-switching method improves accuracy to 89.8%, albeit with a longer inference time of 1,697 seconds. These results underscore a critical trade-off in FHE-based ML: faster activation functions often reduce accuracy, whereas those preserving accuracy demand greater computational resources.
- Abstract(参考訳): 医療や防衛といったセンシティブな分野における機械学習の採用の増加は、重要なプライバシとセキュリティ上の課題をもたらしている。
これらのドメインは、トレーニングと推論の両方に大量の機密情報に依存するため、堅牢なデータ保護を必要とする。
FHE(Fully Homomorphic Encryption)は、暗号化されたデータに直接計算を可能にし、機械学習ワークフロー全体の機密性を維持することで、魅力的なソリューションを提供する。
しかし、FHEは本質的に線形演算のみをサポートするため、現代のニューラルネットワークの不可欠なコンポーネントである非線形アクティベーション関数を実装することは困難である。
この研究は、FHEベースの機械学習に適したアクティベーション関数の設計、実装、評価に焦点を当てている。
The Square function and Rectified Linear Unit (ReLU) using LeNet-5 and ResNet-20 architectures with the CKKS scheme from the OpenFHE library。
ReLUでは、従来の低次多項式近似と、FHE制約下でReLUを確実に評価する新しいスキームスイッチング手法の2つの手法を評価する。
この結果は、Square関数がLeNet-5のような浅層ネットワークでうまく機能し、1画像あたり128秒で99.4%の精度を実現していることを示している。
対照的に、ResNet-20のようなより深いモデルは、ReLUの恩恵を受けている。
多項式近似は、画像あたり1,145秒の精度で83.8%、スキームスイッチング法では89.8%に向上するが、推論時間は1,697秒である。
これらの結果は、FHEベースのMLにおいて重要なトレードオフである: より高速なアクティベーション関数は、しばしば精度を低下させる一方、精度を保つためには、より大きな計算資源を必要とする。
関連論文リスト
- MOFHEI: Model Optimizing Framework for Fast and Efficient Homomorphically Encrypted Neural Network Inference [0.8388591755871735]
ホモモルフィック暗号化(HE)により、暗号化データ上で機械学習タスクを実行できる。
HEに基づくニューラルネットワーク推論を高速かつ効率的にするためのモデルを最適化するフレームワークであるMOFHEIを提案する。
このフレームワークはLeNet上で最大98%のプルーニング比を実現し,PI実行に必要なHE操作の最大93%を排除した。
論文 参考訳(メタデータ) (2024-12-10T22:44:54Z) - CARE Transformer: Mobile-Friendly Linear Visual Transformer via Decoupled Dual Interaction [77.8576094863446]
本稿では,新しいdetextbfCoupled dutextbfAl-interactive lineatextbfR atttextbfEntion (CARE) 機構を提案する。
まず,非対称な特徴分離戦略を提案し,非対称的に学習プロセスを局所帰納バイアスと長距離依存に分解する。
分離学習方式を採用し,特徴間の相補性を完全に活用することにより,高い効率性と精度を両立させることができる。
論文 参考訳(メタデータ) (2024-11-25T07:56:13Z) - Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - Hawk: Accurate and Fast Privacy-Preserving Machine Learning Using Secure Lookup Table Computation [11.265356632908846]
直接的なデータ共有のない複数のエンティティからのデータに対する機械学習モデルのトレーニングは、ビジネス、法的、倫理的制約によって妨げられるようなアプリケーションをアンロックすることができる。
我々はロジスティック回帰モデルとニューラルネットワークモデルのための新しいプライバシ保護機械学習プロトコルの設計と実装を行う。
評価の結果,ロジスティック回帰プロトコルは最大9倍高速であり,ニューラルネットワークトレーニングはSecureMLの最大688倍高速であることがわかった。
論文 参考訳(メタデータ) (2024-03-26T00:51:12Z) - OPAF: Optimized Secure Two-Party Computation Protocols for Nonlinear Activation Functions in Recurrent Neural Network [8.825150825838769]
本稿では,二者間設定の半正直モデルにおける非線形関数の実装について,特に注目する。
そこで本研究では,分割・対数戦略を用いた指数関数の新しい,効率的なプロトコルを提案する。
次に,Sigmoid と Tanh の対称性を利用し,入力を微調整して2PC 構築ブロックを小さくする。
論文 参考訳(メタデータ) (2024-03-01T02:49:40Z) - SFPDML: Securer and Faster Privacy-Preserving Distributed Machine Learning based on MKTFHE [7.787159652754433]
MKTFHE(Multi-key homo encryption over torus)は、この問題に対処するための有望な候補の1つである。
MKTFHEの解読にはセキュリティ上のリスクがある可能性がある。
対物回帰やニューラルネットワークなどの一般的な機械学習を高性能に実行することは依然として困難である。
論文 参考訳(メタデータ) (2022-11-17T05:39:48Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - Learning specialized activation functions with the Piecewise Linear Unit [7.820667552233989]
本稿では, 注意深く設計した定式化学習法を組み込んだ, 区分線形単位 (pwlu) と呼ばれる新しい活性化関数を提案する。
特殊なアクティベーション機能を学び、ImageNetやCOCOなどの大規模データセットでSOTA性能を達成できます。
PWLUは推論時に実装も簡単で効率も良く、現実世界のアプリケーションにも広く適用できる。
論文 参考訳(メタデータ) (2021-04-08T11:29:11Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。