論文の概要: Towards Fast and Scalable Private Inference
- arxiv url: http://arxiv.org/abs/2307.04077v1
- Date: Sun, 9 Jul 2023 00:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 15:40:13.093824
- Title: Towards Fast and Scalable Private Inference
- Title(参考訳): 高速でスケーラブルなプライベート推論に向けて
- Authors: Jianqiao Mo, Karthik Garimella, Negar Neda, Austin Ebel, Brandon
Reagen
- Abstract要約: プライバシ保護(PPC)と呼ばれる新しいコンピューティングパラダイムが存在する。
PPC技術は、セキュアなアウトソース計算や、2つのパーティがユーザーの秘密データを公開せずに計算できるように活用することができる。
デジタル時代においてユーザー保護に革命をもたらすという驚くべき可能性にもかかわらず、その実現は計算量、通信量、ストレージのオーバーヘッドによって制限されてきた。
- 参考スコア(独自算出の注目度): 2.2702420046035865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy and security have rapidly emerged as first order design constraints.
Users now demand more protection over who can see their data (confidentiality)
as well as how it is used (control). Here, existing cryptographic techniques
for security fall short: they secure data when stored or communicated but must
decrypt it for computation. Fortunately, a new paradigm of computing exists,
which we refer to as privacy-preserving computation (PPC). Emerging PPC
technologies can be leveraged for secure outsourced computation or to enable
two parties to compute without revealing either users' secret data. Despite
their phenomenal potential to revolutionize user protection in the digital age,
the realization has been limited due to exorbitant computational,
communication, and storage overheads.
This paper reviews recent efforts on addressing various PPC overheads using
private inference (PI) in neural network as a motivating application. First,
the problem and various technologies, including homomorphic encryption (HE),
secret sharing (SS), garbled circuits (GCs), and oblivious transfer (OT), are
introduced. Next, a characterization of their overheads when used to implement
PI is covered. The characterization motivates the need for both GCs and HE
accelerators. Then two solutions are presented: HAAC for accelerating GCs and
RPU for accelerating HE. To conclude, results and effects are shown with a
discussion on what future work is needed to overcome the remaining overheads of
PI.
- Abstract(参考訳): プライバシとセキュリティは、ファーストオーダーの設計制約として急速に現れています。
ユーザーは、データを見る人(秘密性)と利用方法(コントロール)に対して、より多くの保護を求めるようになった。
ここでは、セキュリティのための既存の暗号化技術は不足している。保存または通信時にデータを保護するが、計算のために復号化する必要がある。
幸いにも、プライバシ保護計算(PPC)と呼ばれる新しい計算パラダイムが存在する。
新興のPPC技術は、セキュアなアウトソース計算や、2つのパーティの計算に利用することができる。
デジタル時代のユーザー保護に革命をもたらす驚くべき可能性にもかかわらず、その実現は計算能力、通信能力、ストレージのオーバーヘッドのために制限されている。
本稿では、ニューラルネットワークにおけるプライベート推論(PI)をモチベーションアプリケーションとして利用して、様々なPPCオーバーヘッドに対処する取り組みについてレビューする。
まず,準同型暗号 (he), 秘密共有 (ss), ガーブレッド回路 (gcs), オブリベイト転送 (ot) など様々な技術が紹介されている。
次に、PI実装時のオーバーヘッドのキャラクタリゼーションをカバーします。
キャラクタリゼーションはgcとheアクセラレータの両方の必要性を動機付けている。
次に、GCを加速するHAACとHEを加速するRPUの2つのソリューションが提示される。
結論として、piの残りのオーバーヘッドを克服するための今後の作業について、結果と効果を議論して示します。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Libertas: Privacy-Preserving Computation for Decentralised Personal Data Stores [19.54818218429241]
セキュアなマルチパーティ計算をSolidと統合するためのモジュール設計を提案する。
私たちのアーキテクチャであるLibertasでは、基盤となるSolidの設計にプロトコルレベルの変更は必要ありません。
既存の差分プライバシー技術と組み合わせて、出力プライバシーを確保する方法を示す。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - SOCI^+: An Enhanced Toolkit for Secure OutsourcedComputation on Integers [50.608828039206365]
本稿では,SOCIの性能を大幅に向上させるSOCI+を提案する。
SOCI+は、暗号プリミティブとして、高速な暗号化と復号化を備えた(2, 2)ホールドのPaillier暗号システムを採用している。
実験の結果,SOCI+は計算効率が最大5.4倍,通信オーバヘッドが40%少ないことがわかった。
論文 参考訳(メタデータ) (2023-09-27T05:19:32Z) - Hyperdimensional Computing as a Rescue for Efficient Privacy-Preserving
Machine Learning-as-a-Service [9.773163665697057]
ホモモルフィック暗号化(HE)はこの逆問題に対処するための有望な手法である。
HEを使用すると、サービスプロバイダは、暗号化されたデータをクエリとして取り、それを復号することなくモデルを実行することができる。
我々は、超次元コンピューティングが、暗号化データによるプライバシー保護機械学習の救いになることを示した。
論文 参考訳(メタデータ) (2023-08-17T00:25:17Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - PolyMPCNet: Towards ReLU-free Neural Architecture Search in Two-party
Computation Based Private Inference [23.795457990555878]
プライバシー保護型ディープラーニング(DL)計算を可能にするために,セキュアなマルチパーティ計算(MPC)が議論されている。
MPCは計算オーバーヘッドが非常に高く、大規模システムではその人気を阻害する可能性がある。
本研究では,MPC比較プロトコルとハードウェアアクセラレーションの協調オーバーヘッド削減のための,PolyMPCNetという体系的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-09-20T02:47:37Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - SoK: Privacy-preserving Deep Learning with Homomorphic Encryption [2.9069679115858755]
ホモモルフィック暗号化(HE)は、その内容を明らかにすることなく暗号化データ上で実行される。
プライバシ保護のために、ニューラルネットワークとHEを組み合わせたアプローチを詳細に検討します。
計算オーバーヘッドやユーザビリティ,暗号化スキームによる制限といった,HEベースのプライバシ保護の深層学習には,数多くの課題がある。
論文 参考訳(メタデータ) (2021-12-23T22:03:27Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。