論文の概要: CryptoSPN: Privacy-preserving Sum-Product Network Inference
- arxiv url: http://arxiv.org/abs/2002.00801v1
- Date: Mon, 3 Feb 2020 14:49:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:13:53.713739
- Title: CryptoSPN: Privacy-preserving Sum-Product Network Inference
- Title(参考訳): CryptoSPN:プライバシ保護のSum-Product Network推論
- Authors: Amos Treiber and Alejandro Molina and Christian Weinert and Thomas
Schneider and Kristian Kersting
- Abstract要約: 総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
- 参考スコア(独自算出の注目度): 84.88362774693914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI algorithms, and machine learning (ML) techniques in particular, are
increasingly important to individuals' lives, but have caused a range of
privacy concerns addressed by, e.g., the European GDPR. Using cryptographic
techniques, it is possible to perform inference tasks remotely on sensitive
client data in a privacy-preserving way: the server learns nothing about the
input data and the model predictions, while the client learns nothing about the
ML model (which is often considered intellectual property and might contain
traces of sensitive data). While such privacy-preserving solutions are
relatively efficient, they are mostly targeted at neural networks, can degrade
the predictive accuracy, and usually reveal the network's topology.
Furthermore, existing solutions are not readily accessible to ML experts, as
prototype implementations are not well-integrated into ML frameworks and
require extensive cryptographic knowledge.
In this paper, we present CryptoSPN, a framework for privacy-preserving
inference of sum-product networks (SPNs). SPNs are a tractable probabilistic
graphical model that allows a range of exact inference queries in linear time.
Specifically, we show how to efficiently perform SPN inference via secure
multi-party computation (SMPC) without accuracy degradation while hiding
sensitive client and training information with provable security guarantees.
Next to foundations, CryptoSPN encompasses tools to easily transform existing
SPNs into privacy-preserving executables. Our empirical results demonstrate
that CryptoSPN achieves highly efficient and accurate inference in the order of
seconds for medium-sized SPNs.
- Abstract(参考訳): AIアルゴリズム、特に機械学習(ML)技術は、個人の生活にとってますます重要になっているが、欧州GDPR(GDPR)など、さまざまなプライバシー問題を引き起こしている。
暗号化技術を使うことで、サーバは入力データとモデル予測について何も学習せず、クライアントはmlモデルについて何も学習しない(知的所有権と見なされ、機密データのトレースを含む可能性がある)、機密性の高いクライアントデータに対して、リモートで推論タスクを実行することができる。
このようなプライバシー保護ソリューションは比較的効率的だが、主にニューラルネットワークを対象としており、予測精度を低下させ、ネットワークのトポロジーを明らかにする。
さらに、プロトタイプ実装はMLフレームワークに十分に統合されておらず、広範な暗号知識を必要とするため、既存のソリューションはML専門家に容易にアクセスできない。
本稿では,要約型ネットワーク(SPN)のプライバシ保護のためのフレームワークであるCryptoSPNを提案する。
SPNは、線形時間における正確な推論クエリの範囲を許容する、抽出可能な確率的グラフィカルモデルである。
具体的には,セキュアなマルチパーティ計算(SMPC)によるSPN推論を,機密性のあるクライアントを隠蔽しながら精度を低下させることなく効率的に行う方法について述べる。
ファンデーションの次は、CryptoSPNは既存のSPNを簡単にプライバシー保護実行ファイルに変換するツールを含んでいる。
実験の結果,CryptoSPNは中規模のSPNに対して数秒の順序で高い効率と精度の推論を行うことがわかった。
関連論文リスト
- The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - Privacy-Preserving Verifiable Neural Network Inference Service [4.131956503199438]
我々は,クライアントデータサンプルのプライバシを保存するために,プライバシ保護と検証が可能なCNN推論手法を開発した。
vPINは、クライアントデータのプライバシ保証と証明可能な検証性を提供しながら、証明サイズの観点から高い効率を達成する。
論文 参考訳(メタデータ) (2024-11-12T01:09:52Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Sphynx: ReLU-Efficient Network Design for Private Inference [49.73927340643812]
そこでは、サービスプロバイダのモデルを使用して、ユーザのデータサンプルに対する推論を実行することを目標としています。
ディープネットワークのための既存のPIメソッドは、機能低下の少ない暗号的にセキュアな推論を可能にする。
本稿では,畳み込みセル設計のためのマイクロサーチ手法に基づくReLU効率の高いネットワーク設計手法であるSphynxを提案する。
論文 参考訳(メタデータ) (2021-06-17T18:11:10Z) - Efficient CNN Building Blocks for Encrypted Data [6.955451042536852]
ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
論文 参考訳(メタデータ) (2021-01-30T21:47:23Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z) - Privacy-Preserving XGBoost Inference [0.6345523830122165]
採用の大きな障壁は、予測クエリの繊細な性質である。
プライバシ保護機械学習(PPML)の中心的な目標は、暗号化されたクエリをリモートMLサービスに送信できるようにすることだ。
プライバシを保存するXGBoost予測アルゴリズムを提案し,AWS SageMaker上で実証的に評価を行った。
論文 参考訳(メタデータ) (2020-11-09T21:46:07Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。