論文の概要: Highly Accurate CNN Inference Using Approximate Activation Functions
over Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2009.03727v2
- Date: Wed, 2 Dec 2020 15:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 20:53:25.523041
- Title: Highly Accurate CNN Inference Using Approximate Activation Functions
over Homomorphic Encryption
- Title(参考訳): 正則暗号上の近似活性化関数を用いた高精度CNN推論
- Authors: Takumi Ishiyama, Takuya Suzuki, Hayato Yamana
- Abstract要約: クラウド上の機密データを扱う一般的な方法は、暗号化を復号することなく暗号化されたデータの計算を可能にする、同型暗号化を使用する。
従来の研究では、データ分類に二乗関数のような低次写像関数が用いられていた。
我々は,Microsoft の Simple Encrypted Arithmetic Library for the Cheon-Kim-Kim-Song scheme を用いて,同型暗号に対するCNN推論を実装した。
- 参考スコア(独自算出の注目度): 0.1933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the big data era, cloud-based machine learning as a service (MLaaS) has
attracted considerable attention. However, when handling sensitive data, such
as financial and medical data, a privacy issue emerges, because the cloud
server can access clients' raw data. A common method of handling sensitive data
in the cloud uses homomorphic encryption, which allows computation over
encrypted data without decryption. Previous research usually adopted a
low-degree polynomial mapping function, such as the square function, for data
classification. However, this technique results in low classification accuracy.
In this study, we seek to improve the classification accuracy for inference
processing in a convolutional neural network (CNN) while using homomorphic
encryption. We adopt an activation function that approximates Google's Swish
activation function while using a fourth-order polynomial. We also adopt batch
normalization to normalize the inputs for the Swish function to fit the input
range to minimize the error. We implemented CNN inference labeling over
homomorphic encryption using the Microsoft's Simple Encrypted Arithmetic
Library for the Cheon-Kim-Kim-Song (CKKS) scheme. The experimental evaluations
confirmed classification accuracies of 99.22% and 80.48% for MNIST and
CIFAR-10, respectively, which entails 0.04% and 4.11% improvements,
respectively, over previous methods.
- Abstract(参考訳): ビッグデータ時代において、クラウドベースの機械学習・アズ・ア・サービス(MLaaS)が注目されている。
しかし、金融データや医療データなどの機密データを扱う場合には、クラウドサーバがクライアントの生データにアクセスできるため、プライバシの問題が発生する。
クラウド上の機密データを扱う一般的な方法は、暗号を復号することなく暗号化されたデータの計算を可能にする同型暗号化を使用する。
これまでの研究では通常、データ分類のために平方関数のような低次多項式写像関数を採用した。
しかし、この手法は分類精度が低い。
本研究では,同相暗号を用いて,畳み込みニューラルネットワーク(CNN)における推論処理の分類精度の向上を図る。
4階多項式を用いてGoogleのSwishアクティベーション関数を近似するアクティベーション関数を採用する。
また,スウィッシュ関数の入力を正規化するためにバッチ正規化を採用し,誤差を最小限に抑える。
我々は,Microsoft の Simple Encrypted Arithmetic Library for the Cheon-Kim-Kim-Song (CKKS) スキームを用いて,同型暗号上のCNN推論ラベリングを実装した。
実験の結果, mnist と cifar-10 はそれぞれ 99.22% と 80.48% であり, それぞれ 0.04% と 4.11% の改善がみられた。
関連論文リスト
- Functional data learning using convolutional neural networks [0.0]
本稿では、回帰学習や分類学習において、畳み込みニューラルネットワークがどのように使用できるかを示す。
我々は、畳み込みニューラルネットワークの特定のが典型的なアーキテクチャを使って、すべての回帰演習を行います。
この手法は単純ではあるが精度が高く、将来は工学や医学への応用が期待できる。
論文 参考訳(メタデータ) (2023-10-05T04:46:52Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - Factorizers for Distributed Sparse Block Codes [62.38616784953048]
分散ブロック符号(SBC)は、固定ベクトルを用いてシンボルデータ構造を符号化し、操作するためのコンパクトな表現を示す。
主要な課題の1つは、可能なすべての組み合わせを探索することなく、そのようなデータ構造を構成要素に切り離し、あるいは分解することである。
GSBCと呼ばれるより柔軟で一般化されたSBCを分解する高速かつ高精度な手法を提案する。
論文 参考訳(メタデータ) (2023-03-24T12:31:48Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Effect of Homomorphic Encryption on the Performance of Training
Federated Learning Generative Adversarial Networks [10.030986278376567]
GAN(Generative Adversarial Network)は、機械学習(ML)分野におけるディープラーニング生成モデルである。
医学などの特定の分野において、トレーニングデータは、異なる病院にまたがって保存される病院患者の記録である可能性がある。
本稿では,3種類のホモモルフィック暗号を用いたFL-GANの学習性能の低下に着目した。
論文 参考訳(メタデータ) (2022-07-01T08:35:10Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Cryptotree: fast and accurate predictions on encrypted structured data [0.0]
ホモモルフィック暗号化(HE)は、入力と出力の両方が暗号化される暗号化データ上での計算を可能にする能力で認められている。
線形回帰と比較して非常に強力な学習手法であるランダムフォレスト(RF)の利用を可能にするフレームワークであるCryptotreeを提案する。
論文 参考訳(メタデータ) (2020-06-15T11:48:01Z) - Privacy-Preserving Gaussian Process Regression -- A Modular Approach to
the Application of Homomorphic Encryption [4.1499725848998965]
ホモモルフィック暗号化(FHE)は、データを暗号化しながら計算することができる。
ガウス過程回帰のような一般的な機械学習アルゴリズムは、FHEにはあまり適していない。
保護を必要とするワークフローのセンシティブなステップのみにFHEを適用するモジュラーアプローチは、あるパーティがデータに対して予測できることを示している。
論文 参考訳(メタデータ) (2020-01-28T11:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。