論文の概要: Data Privacy with Homomorphic Encryption in Neural Networks Training and
Inference
- arxiv url: http://arxiv.org/abs/2305.02225v1
- Date: Wed, 3 May 2023 16:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 14:06:41.049108
- Title: Data Privacy with Homomorphic Encryption in Neural Networks Training and
Inference
- Title(参考訳): ニューラルネットワークのトレーニングと推論における同型暗号化によるデータプライバシー
- Authors: Ivone Amorim, Eva Maia, Pedro Barbosa, Isabel Pra\c{c}a
- Abstract要約: ホモモルフィック暗号化(HE)は、ニューラルネットワーク(NN)におけるデータのプライバシを保護するソリューションとして使われる可能性がある。
本研究は,データプライバシとセキュリティを強化する技術と戦略に焦点を当てる。
HEは、NNに対して強力なデータプライバシ保証を提供する可能性があるが、いくつかの課題に対処する必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of Neural Networks (NNs) for sensitive data processing is becoming
increasingly popular, raising concerns about data privacy and security.
Homomorphic Encryption (HE) has the potential to be used as a solution to
preserve data privacy in NN. This study provides a comprehensive analysis on
the use of HE for NN training and classification, focusing on the techniques
and strategies used to enhance data privacy and security. The current
state-of-the-art in HE for NNs is analysed, and the challenges and limitations
that need to be addressed to make it a reliable and efficient approach for
privacy preservation are identified. Also, the different categories of HE
schemes and their suitability for NNs are discussed, as well as the techniques
used to optimize the accuracy and efficiency of encrypted models. The review
reveals that HE has the potential to provide strong data privacy guarantees for
NNs, but several challenges need to be addressed, such as limited support for
advanced NN operations, scalability issues, and performance trade-offs.
- Abstract(参考訳): センシティブなデータ処理にニューラルネットワーク(NN)を使用することは、データプライバシとセキュリティに対する懸念が高まっている。
ホモモルフィック暗号化(HE)は、NNのデータプライバシを保護するソリューションとして使われる可能性がある。
本研究では,データプライバシとセキュリティの強化に使用される技術と戦略に注目し,nnのトレーニングと分類におけるheの利用に関する総合的な分析を行う。
NNのHEにおける現在の最先端技術は分析されており、プライバシー保護のための信頼性と効率的なアプローチにするために対処する必要がある課題と制限が特定されている。
また,異なるカテゴリのHEスキームとNNの適合性,および暗号化モデルの精度と効率を最適化する手法についても論じる。
レビューによると、HEはNNに対して強力なデータプライバシ保証を提供する可能性があるが、高度なNN操作のサポートの制限、スケーラビリティの問題、パフォーマンス上のトレードオフなど、いくつかの課題に対処する必要がある。
関連論文リスト
- Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Scalable and Efficient Methods for Uncertainty Estimation and Reduction
in Deep Learning [0.0]
本稿では,ディープラーニングにおける不確実性推定と削減のためのスケーラブルで効率的な手法について検討する。
アウト・オブ・ディストリビューション・インプットとハードウェアの非理想性に起因する不確実性に対処する。
提案手法は,問題認識学習アルゴリズム,新しいNNトポロジ,ハードウェア共同設計ソリューションを含む。
論文 参考訳(メタデータ) (2024-01-13T19:30:34Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Scaling Model Checking for DNN Analysis via State-Space Reduction and
Input Segmentation (Extended Version) [12.272381003294026]
既存のフレームワークは、トレーニングされたNNに対して堅牢性と/または安全性を保証する。
我々は、広範囲のNNプロパティを分析するための最初のモデルチェックベースのフレームワークであるFANNetを提案した。
本研究は,形式的NN解析のスケーラビリティとタイミング効率を向上させるために,状態空間の削減と入力セグメント化手法を開発する。
論文 参考訳(メタデータ) (2023-06-29T22:18:07Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Privacy-Preserving Decentralized Inference with Graph Neural Networks in
Wireless Networks [39.99126905067949]
無線ネットワークにおけるグラフニューラルネットワークによる分散推論のプライバシの解析と強化を行う。
具体的には、ローカルな差分プライバシーを指標として採用し、新しいプライバシー保護シグナルを設計する。
また、このオーバー・ザ・エア技術を採用し、プライバシー保護の利点を理論的に実証する。
論文 参考訳(メタデータ) (2022-08-15T01:33:07Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。