論文の概要: Privacy-Preserving Machine Learning in Untrusted Clouds Made Simple
- arxiv url: http://arxiv.org/abs/2009.04390v1
- Date: Wed, 9 Sep 2020 16:16:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:05:37.807931
- Title: Privacy-Preserving Machine Learning in Untrusted Clouds Made Simple
- Title(参考訳): 信頼性のないクラウドにおけるプライバシ保護機械学習の簡易化
- Authors: Dayeol Lee, Dmitrii Kuvaiskii, Anjo Vahldiek-Oberwagner, Mona Vij
- Abstract要約: 非信頼なクラウドにプライバシ保護機械学習アプリケーションをデプロイするための実践的なフレームワークを提案する。
我々は、モデルパラメータと暗号化された入力データを備えたIntel SGXエンクレーブでPyTorch MLアプリケーションを動作させることで、修正されていないPyTorch MLアプリケーションを保護する。
私たちのアプローチは、マシンラーニングアプリケーションに対して完全に透過的です。開発者とエンドユーザは、いかなる方法でアプリケーションを変更する必要もありません。
- 参考スコア(独自算出の注目度): 2.3518279773643287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a practical framework to deploy privacy-preserving machine
learning (PPML) applications in untrusted clouds based on a trusted execution
environment (TEE). Specifically, we shield unmodified PyTorch ML applications
by running them in Intel SGX enclaves with encrypted model parameters and
encrypted input data to protect the confidentiality and integrity of these
secrets at rest and during runtime. We use the open-source Graphene library OS
with transparent file encryption and SGX-based remote attestation to minimize
porting effort and seamlessly provide file protection and attestation. Our
approach is completely transparent to the machine learning application: the
developer and the end-user do not need to modify the ML application in any way.
- Abstract(参考訳): 本稿では,信頼された実行環境(TEE)に基づいて,プライバシ保護機械学習(PPML)アプリケーションを信頼できないクラウドにデプロイする実践的フレームワークを提案する。
具体的には、暗号化されたモデルパラメータと暗号化された入力データでIntel SGXエンクレーブで実行することで、修正されていないPyTorch MLアプリケーションを保護する。
我々は、透過的なファイル暗号化とSGXベースのリモート認証を備えたオープンソースのGrapheneライブラリOSを使用して、ポーティングの労力を最小限に抑え、ファイル保護と認証をシームレスに提供する。
私たちのアプローチは、マシンラーニングアプリケーションに対して完全に透過的です。開発者とエンドユーザは、mlアプリケーションを変更する必要はありません。
関連論文リスト
- Confidential Prompting: Protecting User Prompts from Cloud LLM Providers [0.688204255655161]
ユーザプロンプトを信頼された実行環境に限定するために,セキュアなマルチパーティデコーディング(SMD)を導入する。
また,再建攻撃に対する堅牢性を確保するため,新しい暗号手法であるPrompt Obfuscation(PO)を導入する。
我々のソリューションは、臨床記録、財務データ、個人情報などの機密性の高いプロンプトを処理する、プライバシ保護クラウドLLMサービスを可能にする。
論文 参考訳(メタデータ) (2024-09-27T20:32:42Z) - CRISP: Confidentiality, Rollback, and Integrity Storage Protection for Confidential Cloud-Native Computing [0.757843972001219]
クラウドネイティブなアプリケーションはオーケストレーションに依存しており、サービスを頻繁に再起動させる。
再起動中、攻撃者は機密サービスの状態を悪意のある意図を助長する可能性のある以前のバージョンに戻すことができる。
本稿では,Intel SGXの既存のランタイムを使用してロールバックを透過的に防止するロールバック保護機構であるCRISPを提案する。
論文 参考訳(メタデータ) (2024-08-13T11:29:30Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Learning in the Dark: Privacy-Preserving Machine Learning using Function Approximation [1.8907108368038215]
Learning in the Darkは、暗号化された画像を高精度に分類できる、プライバシ保護機械学習モデルである。
暗号化データ上で直接計算を行うことで、高精度な予測を行うことができる。
論文 参考訳(メタデータ) (2023-09-15T06:45:58Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - secureTF: A Secure TensorFlow Framework [1.1006321791711173]
secureTFは、クラウドインフラストラクチャのオンフローに基づいた分散機械学習フレームワークである。
SecureTFは、未修正のアプリケーションをサポートし、入力データ、MLモデル、アプリケーションコードのエンドツーエンドのセキュリティを提供する。
本稿では,本番環境におけるシステム設計選択とシステム配置に関する経験について報告する。
論文 参考訳(メタデータ) (2021-01-20T16:36:53Z) - Privacy-Preserving XGBoost Inference [0.6345523830122165]
採用の大きな障壁は、予測クエリの繊細な性質である。
プライバシ保護機械学習(PPML)の中心的な目標は、暗号化されたクエリをリモートMLサービスに送信できるようにすることだ。
プライバシを保存するXGBoost予測アルゴリズムを提案し,AWS SageMaker上で実証的に評価を行った。
論文 参考訳(メタデータ) (2020-11-09T21:46:07Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。