論文の概要: DarKnight: An Accelerated Framework for Privacy and Integrity Preserving
Deep Learning Using Trusted Hardware
- arxiv url: http://arxiv.org/abs/2207.00083v1
- Date: Thu, 30 Jun 2022 19:58:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 14:50:41.892036
- Title: DarKnight: An Accelerated Framework for Privacy and Integrity Preserving
Deep Learning Using Trusted Hardware
- Title(参考訳): DarKnight: 信頼されたハードウェアを使用したディープラーニングを保存するプライバシーと統合のための加速フレームワーク
- Authors: Hanieh Hashemi and Yongqin Wang and Murali Annavaram
- Abstract要約: DarKnightは大規模なDNNトレーニングのためのフレームワークで、入力のプライバシと整合性を保護する。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
DarKnightのデータ難読化戦略は、クラウドサーバにおける証明可能なデータのプライバシと計算の整合性を提供する。
- 参考スコア(独自算出の注目度): 3.1853566662905943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy and security-related concerns are growing as machine learning reaches
diverse application domains. The data holders want to train or infer with
private data while exploiting accelerators, such as GPUs, that are hosted in
the cloud. Cloud systems are vulnerable to attackers that compromise the
privacy of data and integrity of computations. Tackling such a challenge
requires unifying theoretical privacy algorithms with hardware security
capabilities. This paper presents DarKnight, a framework for large DNN training
while protecting input privacy and computation integrity. DarKnight relies on
cooperative execution between trusted execution environments (TEE) and
accelerators, where the TEE provides privacy and integrity verification, while
accelerators perform the bulk of the linear algebraic computation to optimize
the performance. In particular, DarKnight uses a customized data encoding
strategy based on matrix masking to create input obfuscation within a TEE. The
obfuscated data is then offloaded to GPUs for fast linear algebraic
computation. DarKnight's data obfuscation strategy provides provable data
privacy and computation integrity in the cloud servers. While prior works
tackle inference privacy and cannot be utilized for training, DarKnight's
encoding scheme is designed to support both training and inference.
- Abstract(参考訳): 機械学習が多様なアプリケーションドメインに到達するにつれ、プライバシとセキュリティ関連の懸念が高まりつつある。
データ保持者は、クラウドにホストされているGPUなどのアクセラレータを活用しながら、プライベートデータでトレーニングや推論をしたいと考えています。
クラウドシステムは、データのプライバシーと計算の完全性を侵害する攻撃者に対して脆弱である。
このような課題に対処するには、理論的プライバシアルゴリズムとハードウェアセキュリティ機能を統合する必要がある。
本稿では,入力プライバシと計算整合性を保護しつつ,大規模dnnトレーニングのためのフレームワークであるdarknightを提案する。
DarKnightは信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存しており、TEEはプライバシと整合性検証を提供し、アクセラレータは線形代数計算の大部分を実行して性能を最適化する。
特にDarKnightは、マトリックスマスキングに基づくカスタマイズされたデータエンコーディング戦略を使用して、TEE内で入力難読化を生成する。
難読データをGPUにオフロードして高速線形代数計算を行う。
darknightのデータ難読化戦略は、クラウドサーバにおけるデータのプライバシと計算の完全性を保証する。
先行研究は推論プライバシに取り組み、トレーニングに利用できないが、darknightのエンコーディングスキームはトレーニングと推論の両方をサポートするように設計されている。
関連論文リスト
- DataSeal: Ensuring the Verifiability of Private Computation on Encrypted Data [14.21750921409931]
我々は,アルゴリズムベースのフォールトトレランス(ABFT)手法の低オーバーヘッドと完全同型暗号化(FHE)の秘密性を組み合わせたDataSealを紹介する。
DataSealは、MAC、ZKP、TEEを含む他の技術よりも、FHEの計算検証性を提供するためのオーバーヘッドをはるかに少なくする。
論文 参考訳(メタデータ) (2024-10-19T21:19:39Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Privacy preserving layer partitioning for Deep Neural Network models [0.21470800327528838]
Trusted Execution Environments (TEEs)は、暗号化、復号化、セキュリティ、整合性チェックなどの追加レイヤによって、大幅なパフォーマンスオーバーヘッドを発生させることができる。
我々はGPUに層分割技術とオフロード計算を導入する。
我々は、訓練された条件付き生成逆数ネットワーク(c-GAN)を用いた入力再構成攻撃の防御におけるアプローチの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T02:39:48Z) - Tempo: Confidentiality Preservation in Cloud-Based Neural Network
Training [8.187538747666203]
クラウドディープラーニングプラットフォームは、計算リソースが不足している顧客に対して、費用対効果の高いディープニューラルネットワーク(DNN)トレーニングを提供する。
近年、研究者は、CPU信頼実行環境(TEE)を活用して、ディープラーニングにおけるデータのプライバシ保護を模索している。
本稿では、TEEと分散GPUと連携するクラウドベースの初のディープラーニングシステムであるTempoについて述べる。
論文 参考訳(メタデータ) (2024-01-21T15:57:04Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Privacy and Integrity Preserving Training Using Trusted Hardware [4.5843599120944605]
DarKnightは、入力のプライバシーと整合性を保護しながら、大規模な計算トレーニングのためのフレームワークです。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
論文 参考訳(メタデータ) (2021-05-01T19:33:28Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Prive-HD: Privacy-Preserved Hyperdimensional Computing [18.512391787497673]
超次元(HD)コンピューティングは、その軽量な計算とロバスト性により、勢いを増している。
本稿では,クラウドにホストされた推論のために送信された情報を難読化するために,差分プライベートモデルを実現するための精度プライバシトレードオフ手法を提案する。
論文 参考訳(メタデータ) (2020-05-14T04:19:34Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。