論文の概要: Efficient CNN Building Blocks for Encrypted Data
- arxiv url: http://arxiv.org/abs/2102.00319v1
- Date: Sat, 30 Jan 2021 21:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 09:00:15.440731
- Title: Efficient CNN Building Blocks for Encrypted Data
- Title(参考訳): 暗号化データのための効率的なCNNビルディングブロック
- Authors: Nayna Jain, Karthik Nandakumar, Nalini Ratha, Sharath Pankanti, Uttam
Kumar
- Abstract要約: ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
- 参考スコア(独自算出の注目度): 6.955451042536852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning on encrypted data can address the concerns related to
privacy and legality of sharing sensitive data with untrustworthy service
providers. Fully Homomorphic Encryption (FHE) is a promising technique to
enable machine learning and inferencing while providing strict guarantees
against information leakage. Since deep convolutional neural networks (CNNs)
have become the machine learning tool of choice in several applications,
several attempts have been made to harness CNNs to extract insights from
encrypted data. However, existing works focus only on ensuring data security
and ignore security of model parameters. They also report high level
implementations without providing rigorous analysis of the accuracy, security,
and speed trade-offs involved in the FHE implementation of generic primitive
operators of a CNN such as convolution, non-linear activation, and pooling. In
this work, we consider a Machine Learning as a Service (MLaaS) scenario where
both input data and model parameters are secured using FHE. Using the CKKS
scheme available in the open-source HElib library, we show that operational
parameters of the chosen FHE scheme such as the degree of the cyclotomic
polynomial, depth limitations of the underlying leveled HE scheme, and the
computational precision parameters have a major impact on the design of the
machine learning model (especially, the choice of the activation function and
pooling method). Our empirical study shows that choice of aforementioned design
parameters result in significant trade-offs between accuracy, security level,
and computational time. Encrypted inference experiments on the MNIST dataset
indicate that other design choices such as ciphertext packing strategy and
parallelization using multithreading are also critical in determining the
throughput and latency of the inference process.
- Abstract(参考訳): 暗号化されたデータの機械学習は、機密データを信頼できないサービスプロバイダと共有するプライバシーと合法性に関する懸念に対処することができる。
FHE(Fullly Homomorphic Encryption)は、情報漏洩に対する厳格な保証を提供しながら、機械学習と推論を可能にする有望な技術です。
ディープ畳み込みニューラルネットワーク(CNN)がいくつかのアプリケーションで選択可能な機械学習ツールになっているため、暗号化されたデータから洞察を抽出するためにCNNを活用する試みがいくつか行われている。
しかし、既存の作業はデータセキュリティの確保とモデルパラメータのセキュリティの無視にのみ焦点が当てられている。
彼らはまた、畳み込み、非線形アクティベーション、プーリングなどのCNNのジェネリックプリミティブ演算子のFHE実装に関わる正確性、セキュリティ、およびスピードトレードオフの厳密な分析を提供せずに、高レベルの実装を報告します。
本研究では、入力データとモデルパラメータの両方をFHEを用いて保護するMLaaS(Machine Learning as a Service)シナリオを検討する。
オープンソースのHElibライブラリで利用可能なCKKSスキームを使用して、シクロトミック多項式の度合い、基礎となるレベルのHEスキームの深さ制限、および計算精度パラメータなどの選択されたFHEスキームの運用パラメータが、機械学習モデルの設計(特に、アクティベーション関数とプーリング方法の選択)に大きな影響を与えていることを示します。
実験の結果, 設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
MNISTデータセットの暗号化推論実験は、暗号文のパッキング戦略やマルチスレッドを用いた並列化といった他の設計選択も、推論プロセスのスループットとレイテンシを決定する上で重要であることを示している。
関連論文リスト
- Encrypted Large Model Inference: The Equivariant Encryption Paradigm [18.547945807599543]
Equivariant Encryption(EE)は,暗号化されたデータに対して,性能上のオーバーヘッドがゼロに近いセキュアな"盲目"推論を可能にするように設計された,新しいパラダイムである。
計算グラフ全体を暗号化する完全同型アプローチとは異なり、EEはニューラルネットワーク層内の重要な内部表現を選択的に難読化する。
EEは高い忠実性とスループットを維持しており、ロバストなデータの機密性と、現代的な大規模モデル推論の厳密な効率要件の間のギャップを効果的に埋めています。
論文 参考訳(メタデータ) (2025-02-03T03:05:20Z) - Cryptanalysis via Machine Learning Based Information Theoretic Metrics [58.96805474751668]
本稿では,機械学習アルゴリズムの新たな2つの応用法を提案する。
これらのアルゴリズムは、監査設定で容易に適用でき、暗号システムの堅牢性を評価することができる。
本稿では,DES,RSA,AES ECBなど,IND-CPAの安全でない暗号化スキームを高精度に識別する。
論文 参考訳(メタデータ) (2025-01-25T04:53:36Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Secure Neuroimaging Analysis using Federated Learning with Homomorphic
Encryption [14.269757725951882]
フェデレートラーニング(FL)は、異なるリモートデータソース上の機械学習モデルの分散計算を可能にする。
最近のメンバーシップ攻撃は、モデルパラメータや要約統計が中央サイトと共有されているときに、個人的または機密性の高い個人情報が漏洩したり、推測されることがあることを示している。
完全同相暗号(FHE)を用いたセキュアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-07T12:15:52Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。