論文の概要: Efficient Representations for Privacy-Preserving Inference
- arxiv url: http://arxiv.org/abs/2110.08321v1
- Date: Fri, 15 Oct 2021 19:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 02:03:36.515049
- Title: Efficient Representations for Privacy-Preserving Inference
- Title(参考訳): プライバシ保存推論のための効率的な表現
- Authors: Han Xuanyuan, Francisco Vargas, Stephen Cummins
- Abstract要約: 我々は、MNISTとCIFAR-10データセットに基づいて、プライベートCNNを構築し、評価する。
我々はCryptoNetsアーキテクチャの推論に使用される演算数を2倍に減らした。
- 参考スコア(独自算出の注目度): 3.330229314824913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have a wide range of applications across multiple
domains such as computer vision and medicine. In many cases, the input of a
model at inference time can consist of sensitive user data, which raises
questions concerning the levels of privacy and trust guaranteed by such
services. Much existing work has leveraged homomorphic encryption (HE) schemes
that enable computation on encrypted data to achieve private inference for
multi-layer perceptrons and CNNs. An early work along this direction was
CryptoNets, which takes 250 seconds for one MNIST inference. The main
limitation of such approaches is that of compute, which is due to the costly
nature of the NTT (number theoretic transform)operations that constitute HE
operations. Others have proposed the use of model pruning and efficient data
representations to reduce the number of HE operations required. In this paper,
we focus on improving upon existing work by proposing changes to the
representations of intermediate tensors during CNN inference. We construct and
evaluate private CNNs on the MNIST and CIFAR-10 datasets, and achieve over a
two-fold reduction in the number of operations used for inferences of the
CryptoNets architecture.
- Abstract(参考訳): ディープニューラルネットワークは、コンピュータビジョンや医療など、複数のドメインにまたがる幅広いアプリケーションを持っている。
多くの場合、推論時のモデルの入力はセンシティブなユーザデータで構成され、そのようなサービスによって保証されるプライバシーと信頼のレベルに関する疑問を提起する。
既存の研究の多くは、暗号化データの計算により多層パーセプトロンとcnnのプライベート推論を可能にする準同型暗号化(he)スキームを利用している。
この方向に沿った初期の作業はCryptoNetsで、1つのMNIST推論で250秒かかる。
このようなアプローチの主な制限は計算の制限であり、これはHE演算を構成するNTT(数論的変換)演算のコスト性に起因する。
モデルプルーニングと効率的なデータ表現を使って、HE操作の回数を減らす方法も提案されている。
本稿では,CNN推論における中間テンソル表現の変更を提案することにより,既存の作業の改善に焦点をあてる。
MNISTおよびCIFAR-10データセットを用いてプライベートCNNを構築し評価し、CryptoNetsアーキテクチャの推論に使用される操作数を2倍に減らした。
関連論文リスト
- A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural
Networks [5.274804664403783]
スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
論文 参考訳(メタデータ) (2023-08-10T15:26:35Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets [7.067870969078555]
暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシ保護機械学習タスクに対処するための、既存の有望なアプローチである。
複数の情報源から収集された複数のデータセット上でディープニューラルネットワーク(DNN)モデルをトレーニングするための新しいフレームワークであるNN-EMDを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2020-12-18T23:01:20Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z) - Training and Inference for Integer-Based Semantic Segmentation Network [18.457074855823315]
セグメンテーションネットワークのトレーニングと推論のための新しい量子化フレームワークを提案する。
我々のフレームワークはFCN-VGG16やDeepLabv3-ResNet50のような主流セマンティックセマンティクスネットワークで評価されている。
論文 参考訳(メタデータ) (2020-11-30T02:07:07Z) - POSEIDON: Privacy-Preserving Federated Neural Network Learning [8.103262600715864]
POSEIDONは、プライバシ保護ニューラルネットワークトレーニングの世界で、最初のタイプのものだ。
トレーニングデータ、モデル、評価データの機密性を維持するために、マルチパーティの格子ベースの暗号を用いる。
MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-09-01T11:06:31Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。