論文の概要: Privacy-Preserving CNN Training with Transfer Learning
- arxiv url: http://arxiv.org/abs/2304.03807v2
- Date: Tue, 9 May 2023 20:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 16:32:16.214410
- Title: Privacy-Preserving CNN Training with Transfer Learning
- Title(参考訳): トランスファーラーニングによるプライバシー保護型CNNトレーニング
- Authors: John Chiang
- Abstract要約: 本稿では,ただのホモモルフィック暗号化(HE)技術に基づくプライバシー保護型CNNトレーニングを実現するための実践的ソリューションを提案する。
私たちの知る限りでは、これはこのナットを突破する最初の試みであり、これまでこの目標を達成した作業はありませんでした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a practical solution to implement
privacy-preserving CNN training based on mere Homomorphic Encryption (HE)
technique. To our best knowledge, this is the first attempt successfully to
crack this nut and no work ever before has achieved this goal. Several
techniques combine to accomplish the task:: (1) with transfer learning,
privacy-preserving CNN training can be reduced to homomorphic neural network
training, or even multiclass logistic regression (MLR) training; (2) via a
faster gradient variant called $\texttt{Quadratic Gradient}$, an enhanced
gradient method for MLR with a state-of-the-art performance in convergence
speed is applied in this work to achieve high performance; (3) we employ the
thought of transformation in mathematics to transform approximating Softmax
function in the encryption domain to the approximation of the Sigmoid function.
A new type of loss function termed $\texttt{Squared Likelihood Error}$ has been
developed alongside to align with this change.; and (4) we use a simple but
flexible matrix-encoding method named $\texttt{Volley Revolver}$ to manage the
data flow in the ciphertexts, which is the key factor to complete the whole
homomorphic CNN training. The complete, runnable C++ code to implement our work
can be found at:
\href{https://github.com/petitioner/HE.CNNtraining}{$\texttt{https://github.com/petitioner/HE.CNNtraining}$}.
We select $\texttt{REGNET\_X\_400MF}$ as our pre-trained model for transfer
learning. We use the first 128 MNIST training images as training data and the
whole MNIST testing dataset as the testing data. The client only needs to
upload 6 ciphertexts to the cloud and it takes $\sim 21$ mins to perform 2
iterations on a cloud with 64 vCPUs, resulting in a precision of $21.49\%$.
- Abstract(参考訳): 本稿では,ただの同型暗号化(HE)技術に基づくプライバシー保護型CNNトレーニングを実現するための実践的ソリューションを提案する。
私たちの知る限りでは、これはこのナットを突破する最初の試みであり、これまでこの目標を達成した作業はありません。
Several techniques combine to accomplish the task:: (1) with transfer learning, privacy-preserving CNN training can be reduced to homomorphic neural network training, or even multiclass logistic regression (MLR) training; (2) via a faster gradient variant called $\texttt{Quadratic Gradient}$, an enhanced gradient method for MLR with a state-of-the-art performance in convergence speed is applied in this work to achieve high performance; (3) we employ the thought of transformation in mathematics to transform approximating Softmax function in the encryption domain to the approximation of the Sigmoid function.
この変更に合わせて、$\texttt{squared likelihood error}$と呼ばれる新しいタイプの損失関数が開発された。
; と (4) は、暗号文内のデータフローを管理するために$\texttt{volley revolver}$という、単純で柔軟なマトリックスエンコーディングメソッドを使用します。
私たちの作業を実装するための完全な実行可能なC++コードは、以下のとおりである。
転送学習のための事前学習モデルとして$\texttt{REGNET\_X\_400MF}$を選択する。
最初の128のMNISTトレーニングイメージをトレーニングデータとして、MNISTテストデータセット全体をテストデータとして使用します。
クライアントは6つの暗号文をクラウドにアップロードするだけでよく、64のvCPUを持つクラウド上で2つのイテレーションを実行するのに$\sim 21$ minsの費用がかかる。
関連論文リスト
- Scaling Up Differentially Private LASSO Regularized Logistic Regression
via Faster Frank-Wolfe Iterations [51.14495595270775]
我々は,Frank-Wolfeアルゴリズムを$L_1$のペナル化線形回帰に適応させ,スパース入力を認識し,有効利用する。
この方法では,プライバシパラメータ$epsilon$の値とデータセットの分散度に応じて,最大2,200times$の係数でランタイムを削減できることを示す。
論文 参考訳(メタデータ) (2023-10-30T19:52:43Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Blessing of Class Diversity in Pre-training [54.335530406959435]
事前学習タスクのクラスが十分に多種多様である場合、事前学習は下流タスクのサンプル効率を大幅に向上させることができることを示す。
我々の証明は、合成関数クラスに対するベクトル形式ラデマッハ複雑性連鎖則と修正自己調和条件に依存している。
論文 参考訳(メタデータ) (2022-09-07T20:10:12Z) - Training Overparametrized Neural Networks in Sublinear Time [14.918404733024332]
ディープラーニングには膨大な計算とエネルギーのコストが伴う。
探索木の小さな部分集合として、二分ニューラルネットワークの新しいサブセットを示し、それぞれが探索木のサブセット(Ds)に対応する。
我々はこの見解が深層ネットワーク(Ds)の分析解析にさらに応用できると考えている。
論文 参考訳(メタデータ) (2022-08-09T02:29:42Z) - Invariance encoding in sliced-Wasserstein space for image classification
with limited training data [10.435990685398595]
我々は、ラドン累積分布変換(R-CDT)の特定の数学的性質を利用して、スライスされたワッサーシュタイン空間における最近傍部分空間分類モデルを数学的に拡張することを提案する。
特定の学習問題に対して,我々の数学的解法は,分類精度と計算複雑性の観点から,深層CNNによるデータ拡張よりも有利であることを示す。
論文 参考訳(メタデータ) (2022-01-09T10:25:27Z) - Does Preprocessing Help Training Over-parameterized Neural Networks? [19.64638346701198]
我々は,$Omega(mnd)$バリアをバイパスする2つの新しい前処理手法を提案する。
本研究は,これまでに確立された高速訓練法について理論的考察を行った。
論文 参考訳(メタデータ) (2021-10-09T18:16:23Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z) - Masked Contrastive Representation Learning for Reinforcement Learning [202.8261654227565]
コントラスト学習を用いて個々のビデオフレームの原画素から高次特徴を抽出するCURLは,効率的なアルゴリズムである。
本稿では,連続した入力間の相関を考慮に入れたRLのための新しいアルゴリズム,マスク付きコントラスト表現学習を提案する。
DMControlスイートの16ドル環境中14ドル,Atari 2600 Gamesの26ドル環境中21ドル環境中26ドル環境中24ドルで,CURLに対する一貫した改善を実現している。
論文 参考訳(メタデータ) (2020-10-15T02:00:10Z) - SparseTrain: Exploiting Dataflow Sparsity for Efficient Convolutional
Neural Networks Training [34.657942518465575]
畳み込みニューラルネットワーク(CNN)の訓練は通常、大量の計算資源を必要とする。
そこで本論文では,SparseTrain を用いた CNN トレーニングの高速化について提案する。
我々は,CNNを textitSparseTrain にマッピングする %a の単純なコンパイラを構築した。
論文 参考訳(メタデータ) (2020-07-21T11:01:36Z) - Training (Overparametrized) Neural Networks in Near-Linear Time [21.616949485102342]
本稿では,ReparamLUネットワークをトレーニングするための[CGH+1]アルゴリズムの高速化について述べる。
我々のアルゴリズムの中心はガウスニュートンを$ell$-reconditionとして再構成することである。
論文 参考訳(メタデータ) (2020-06-20T20:26:14Z) - Backward Feature Correction: How Deep Learning Performs Deep
(Hierarchical) Learning [66.05472746340142]
本稿では,SGD による階層的学習 _efficiently_ と _automatically_ を学習目標として,多層ニューラルネットワークがどのように行うかを分析する。
我々は、下位機能のエラーを上位層と共にトレーニングする際に自動的に修正できる"後方特徴補正"と呼ばれる新しい原則を確立する。
論文 参考訳(メタデータ) (2020-01-13T17:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。