論文の概要: SoK: Privacy-preserving Deep Learning with Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2112.12855v1
- Date: Thu, 23 Dec 2021 22:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 18:37:10.270235
- Title: SoK: Privacy-preserving Deep Learning with Homomorphic Encryption
- Title(参考訳): SoK: 同型暗号化によるプライバシー保護ディープラーニング
- Authors: Robert Podschwadt, Daniel Takabi, Peizhao Hu
- Abstract要約: ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
- 参考スコア(独自算出の注目度): 2.9069679115858755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Outsourced computation for neural networks allows users access to state of
the art models without needing to invest in specialized hardware and know-how.
The problem is that the users lose control over potentially privacy sensitive
data. With homomorphic encryption (HE) computation can be performed on
encrypted data without revealing its content. In this systematization of
knowledge, we take an in-depth look at approaches that combine neural networks
with HE for privacy preservation. We categorize the changes to neural network
models and architectures to make them computable over HE and how these changes
impact performance. We find numerous challenges to HE based privacy-preserving
deep learning such as computational overhead, usability, and limitations posed
by the encryption schemes.
- Abstract(参考訳): ニューラルネットワークのアウトソース計算により、ユーザーは特別なハードウェアやノウハウに投資することなく、アートモデルの状態にアクセスすることができる。
問題は、ユーザーがプライバシーに敏感なデータをコントロールできなくなることだ。
ホモモルフィック暗号化(HE)計算は、その内容を明らかにすることなく暗号化データ上で実行できる。
この知識の体系化では、ニューラルネットワークとHEを組み合わせてプライバシー保護を行うアプローチを詳細に検討する。
ニューラルネットワークモデルとアーキテクチャの変更を分類して、HEよりも計算可能なものにし、これらの変更がパフォーマンスに与える影響を分類する。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限など,HEベースのプライバシー保護深層学習には,数多くの課題がある。
関連論文リスト
- Cryptanalysis via Machine Learning Based Information Theoretic Metrics [58.96805474751668]
本稿では,機械学習アルゴリズムの新たな2つの応用法を提案する。
これらのアルゴリズムは、監査設定で容易に適用でき、暗号システムの堅牢性を評価することができる。
本稿では,DES,RSA,AES ECBなど,IND-CPAの安全でない暗号化スキームを高精度に識別する。
論文 参考訳(メタデータ) (2025-01-25T04:53:36Z) - Federated Learning with Quantum Computing and Fully Homomorphic Encryption: A Novel Computing Paradigm Shift in Privacy-Preserving ML [4.92218040320554]
フェデレートラーニング(Federated Learning)は、複数の学習クライアントがプライベートデータを公開せずにモデル知識を共有できるようにする、従来の方法に代わるプライバシ保護手法である。
この研究は、古典層と量子層の両方を統合するフェデレート学習ニューラルネットワークアーキテクチャに完全同型暗号化スキームを適用した。
論文 参考訳(メタデータ) (2024-09-14T01:23:26Z) - Learning in the Dark: Privacy-Preserving Machine Learning using Function Approximation [1.8907108368038215]
Learning in the Darkは、暗号化された画像を高精度に分類できる、プライバシ保護機械学習モデルである。
暗号化データ上で直接計算を行うことで、高精度な予測を行うことができる。
論文 参考訳(メタデータ) (2023-09-15T06:45:58Z) - Deep Neural Networks for Encrypted Inference with TFHE [0.0]
完全同型暗号(英: Fully homomorphic encryption, FHE)は、復号化せずに暗号化されたデータ上で計算を行うことができる暗号法である。
TFHEは、健康データ、バイオメトリックス、クレジットスコア、その他の個人情報などの機密データを扱うオンラインサービスのユーザのプライバシを保存する。
本稿では、任意の深度計算回路を実現するFHEスキームであるTFHEの制約に適合するディープニューラルネットワーク(DNN)を構築する方法について述べる。
論文 参考訳(メタデータ) (2023-02-13T09:53:31Z) - EDLaaS; Fully Homomorphic Encryption Over Neural Network Graphs [7.195443855063635]
我々は、Microsoft Simple Encrypted Arithmetic Library (MS-SEAL)が提供する固定点上の第4世代Cheon, Kim, Kim and Song (CKKS) FHEスキームを使用する。
FHEは、プライバシ保護機械学習(PPML)のすべての問題に対するパナセアではなく、モデルトレーニングのような特定の制限がまだ残っていることが分かっています。
我々は、畳み込みニューラルネットワーク(CNN)、ファッションMNIST、およびレベル付きFHE操作に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-26T12:43:35Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - TenSEAL: A Library for Encrypted Tensor Operations Using Homomorphic
Encryption [0.0]
モノモルフィック暗号化を用いたプライバシー保護機械学習のためのオープンソースライブラリTenSEALを紹介します。
我々は,半メガバイト以下の通信を用いて,暗号化畳み込みニューラルネットワークを1秒以内で評価可能であることを示す。
論文 参考訳(メタデータ) (2021-04-07T14:32:38Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。