論文の概要: Privacy and Integrity Preserving Training Using Trusted Hardware
- arxiv url: http://arxiv.org/abs/2105.00334v1
- Date: Sat, 1 May 2021 19:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:37:32.464246
- Title: Privacy and Integrity Preserving Training Using Trusted Hardware
- Title(参考訳): 信頼されたハードウェアを用いたプライバシと整合性のトレーニング
- Authors: Hanieh Hashemi, Yongqin Wang, Murali Annavaram
- Abstract要約: DarKnightは、入力のプライバシーと整合性を保護しながら、大規模な計算トレーニングのためのフレームワークです。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
- 参考スコア(独自算出の注目度): 4.5843599120944605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy and security-related concerns are growing as machine learning reaches
diverse application domains. The data holders want to train with private data
while exploiting accelerators, such as GPUs, that are hosted in the cloud.
However, Cloud systems are vulnerable to attackers that compromise the privacy
of data and integrity of computations. This work presents DarKnight, a
framework for large DNN training while protecting input privacy and computation
integrity. DarKnight relies on cooperative execution between trusted execution
environments (TEE) and accelerators, where the TEE provides privacy and
integrity verification, while accelerators perform the computation heavy linear
algebraic operations.
- Abstract(参考訳): 機械学習が多様なアプリケーションドメインに到達するにつれ、プライバシとセキュリティ関連の懸念が高まりつつある。
データ保持者は、クラウドにホストされているGPUなどのアクセラレータを活用しながら、プライベートデータでトレーニングしたいと考えています。
しかし、クラウドシステムはデータのプライバシーと計算の完全性を侵害する攻撃者に対して脆弱である。
これは、入力プライバシと計算の整合性を保護しながら、大規模なdnnトレーニングのためのフレームワークである。
DarKnightは信頼された実行環境(TEE)とアクセラレータ間の協調実行に依存しており、TEEはプライバシと整合性検証を提供し、アクセラレータは重い線形代数演算を実行する。
関連論文リスト
- Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Tempo: Confidentiality Preservation in Cloud-Based Neural Network
Training [8.187538747666203]
クラウドディープラーニングプラットフォームは、計算リソースが不足している顧客に対して、費用対効果の高いディープニューラルネットワーク(DNN)トレーニングを提供する。
近年、研究者は、CPU信頼実行環境(TEE)を活用して、ディープラーニングにおけるデータのプライバシ保護を模索している。
本稿では、TEEと分散GPUと連携するクラウドベースの初のディープラーニングシステムであるTempoについて述べる。
論文 参考訳(メタデータ) (2024-01-21T15:57:04Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - DarKnight: An Accelerated Framework for Privacy and Integrity Preserving
Deep Learning Using Trusted Hardware [3.1853566662905943]
DarKnightは大規模なDNNトレーニングのためのフレームワークで、入力のプライバシと整合性を保護する。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
DarKnightのデータ難読化戦略は、クラウドサーバにおける証明可能なデータのプライバシと計算の整合性を提供する。
論文 参考訳(メタデータ) (2022-06-30T19:58:36Z) - Mitigating Leakage from Data Dependent Communications in Decentralized
Computing using Differential Privacy [1.911678487931003]
本稿では,ユーザ側分散計算における通信データ依存性を制御する汎用実行モデルを提案する。
私たちの公式なプライバシー保証は、シャッフルによるプライバシーの増幅に関する最近の結果を活用し、拡張します。
論文 参考訳(メタデータ) (2021-12-23T08:30:17Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z) - Prive-HD: Privacy-Preserved Hyperdimensional Computing [18.512391787497673]
超次元(HD)コンピューティングは、その軽量な計算とロバスト性により、勢いを増している。
本稿では,クラウドにホストされた推論のために送信された情報を難読化するために,差分プライベートモデルを実現するための精度プライバシトレードオフ手法を提案する。
論文 参考訳(メタデータ) (2020-05-14T04:19:34Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。