論文の概要: ReBoot: Encrypted Training of Deep Neural Networks with CKKS Bootstrapping
- arxiv url: http://arxiv.org/abs/2506.19693v1
- Date: Tue, 24 Jun 2025 15:00:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.687974
- Title: ReBoot: Encrypted Training of Deep Neural Networks with CKKS Bootstrapping
- Title(参考訳): ReBoot: CKKSブートストラップを用いたディープニューラルネットワークの暗号化トレーニング
- Authors: Alberto Pirillo, Luca Colombo,
- Abstract要約: Homomorphic Encryption (HE)は、量子後暗号セキュリティとエンドツーエンドのデータ保護を提供する。
Deep Neural Networks(DNN)はHE設定で注目されているが、その使用は主に暗号化推論に限定されている。
本稿では,DNNの完全暗号化および非対話的トレーニングを可能にする最初のフレームワークであるReBootを紹介する。
- 参考スコア(独自算出の注目度): 0.0552480439325792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing concerns over data privacy underscore the need for deep learning methods capable of processing sensitive information without compromising confidentiality. Among privacy-enhancing technologies, Homomorphic Encryption (HE) stands out by providing post-quantum cryptographic security and end-to-end data protection, safeguarding data even during computation. While Deep Neural Networks (DNNs) have gained attention in HE settings, their use has largely been restricted to encrypted inference. Prior research on encrypted training has primarily focused on logistic regression or has relied on multi-party computation to enable model fine-tuning. This stems from the substantial computational overhead and algorithmic complexity involved in DNNs training under HE. In this paper, we present ReBoot, the first framework to enable fully encrypted and non-interactive training of DNNs. Built upon the CKKS scheme, ReBoot introduces a novel HE-compliant neural network architecture based on local error signals, specifically designed to minimize multiplicative depth and reduce noise accumulation. ReBoot employs a tailored packing strategy that leverages real-number arithmetic via SIMD operations, significantly lowering both computational and memory overhead. Furthermore, by integrating approximate bootstrapping, ReBoot learning algorithm supports effective training of arbitrarily deep multi-layer perceptrons, making it well-suited for machine learning as-a-service. ReBoot is evaluated on both image recognition and tabular benchmarks, achieving accuracy comparable to 32-bit floating-point plaintext training while enabling fully encrypted training. It improves test accuracy by up to +3.27% over encrypted logistic regression, and up to +6.83% over existing encrypted DNN frameworks, while reducing training latency by up to 8.83x. ReBoot is made available to the scientific community as a public repository.
- Abstract(参考訳): データプライバシに関する懸念の高まりは、機密性を損なうことなく機密情報を処理できるディープラーニング手法の必要性を浮き彫りにする。
プライバシー強化技術の中で、ホモモルフィック暗号化(HE)は、量子後暗号セキュリティとエンドツーエンドのデータ保護を提供することで、計算時でもデータを保護している。
Deep Neural Networks(DNN)はHE設定で注目されているが、その使用は主に暗号化推論に限定されている。
暗号化トレーニングの以前の研究は、主にロジスティック回帰に焦点を当てていたり、モデルの微調整を可能にするためにマルチパーティの計算に頼っていた。
これはHEの下でのDNNトレーニングに相当な計算オーバーヘッドとアルゴリズムの複雑さに起因する。
本稿では,DNNの完全暗号化および非対話的トレーニングを可能にする最初のフレームワークであるReBootを提案する。
CKKSスキームに基づいて構築されたReBootは、ローカルエラー信号に基づく新しいHE準拠ニューラルネットワークアーキテクチャを導入し、特に乗算深度を最小化し、ノイズ蓄積を低減するように設計されている。
ReBootはSIMD演算による実数演算を利用する調整されたパッキング戦略を採用しており、計算とメモリのオーバーヘッドを大幅に削減する。
さらに、近似ブートストラップを統合することで、ReBoot学習アルゴリズムは、任意の深層パーセプトロンの効果的なトレーニングをサポートし、機械学習・アズ・ア・サービスに適している。
ReBootは画像認識と表型ベンチマークの両方で評価され、32ビット浮動小数点平文トレーニングに匹敵する精度で、完全に暗号化されたトレーニングが可能である。
暗号化ロジスティック回帰で最大+3.27%、既存の暗号化DNNフレームワークで最大+6.83%、トレーニングのレイテンシを最大8.83倍に向上する。
ReBootは科学コミュニティでパブリックリポジトリとして利用できる。
関連論文リスト
- NeRF-based CBCT Reconstruction needs Normalization and Initialization [53.58395475423445]
NeRFベースの手法は、ハッシュエンコーダとニューラルネットワークという2つの主要なコンポーネント間の局所的な訓練ミスマッチに悩まされる。
特徴整合性を高め、ミスマッチを緩和する正規化ハッシュを導入する。
ニューラルネットワークは早期トレーニング中に安定性が向上し、より高速な収束と再構築性能が向上する。
論文 参考訳(メタデータ) (2025-06-24T16:01:45Z) - CryptoTrain: Fast Secure Training on Encrypted Dataset [17.23344104239024]
線形および非線形操作を扱うために,同型暗号化とOblivious Transfer(OT)を併用したハイブリッド暗号プロトコルを開発した。
CCMul-Precomputeと相関した畳み込みをCryptoTrain-Bに統合することにより、迅速かつ効率的なセキュアなトレーニングフレームワークを実現する。
論文 参考訳(メタデータ) (2024-09-25T07:06:14Z) - Tempo: Confidentiality Preservation in Cloud-Based Neural Network
Training [8.187538747666203]
クラウドディープラーニングプラットフォームは、計算リソースが不足している顧客に対して、費用対効果の高いディープニューラルネットワーク(DNN)トレーニングを提供する。
近年、研究者は、CPU信頼実行環境(TEE)を活用して、ディープラーニングにおけるデータのプライバシ保護を模索している。
本稿では、TEEと分散GPUと連携するクラウドベースの初のディープラーニングシステムであるTempoについて述べる。
論文 参考訳(メタデータ) (2024-01-21T15:57:04Z) - Exploiting Symmetric Temporally Sparse BPTT for Efficient RNN Training [20.49255973077044]
この研究は、デルタRNNのトレーニングアルゴリズムを記述し、後方伝播フェーズにおける時間的間隔を利用してエッジでのトレーニングの計算要求を減らした。
その結果,Fluent Speech Commandsデータセット上で,56kパラメータのDelta LSTMをトレーニングするための行列演算の$sim$80%の削減効果が認められた。
提案したDelta RNNトレーニングは,限られたコンピューティングリソースを持つエッジデバイス上でのオンラインインクリメンタル学習に有用であることを示す。
論文 参考訳(メタデータ) (2023-12-14T23:07:37Z) - zkDL: Efficient Zero-Knowledge Proofs of Deep Learning Training [6.993329554241878]
ZkDLは、ディープラーニングトレーニングのための効率的なゼロ知識証明である。
zkReLUは、ReLU活性化とそのバックプロパゲーションの特別な証明である。
FAC4DNNはニューラルネットワークをモデル化する特殊な演算回路設計である。
論文 参考訳(メタデータ) (2023-07-30T16:41:13Z) - Hierarchical Training of Deep Neural Networks Using Early Exiting [42.186536611404165]
深層ニューラルネットワークは、ビジョンタスクに最先端の精度を提供するが、トレーニングにはかなりのリソースを必要とする。
ディープニューラルネットワークは、データを取得するエッジデバイスから遠く離れたクラウドサーバでトレーニングされる。
本研究では,エッジワーカとクラウドワーカの分割アーキテクチャにおける早期出口を用いた,深層ニューラルネットワークの階層的学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-04T11:30:16Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。