論文の概要: Privacy-Preserving Machine Learning in Untrusted Clouds Made Simple
- arxiv url: http://arxiv.org/abs/2009.04390v1
- Date: Wed, 9 Sep 2020 16:16:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:05:37.807931
- Title: Privacy-Preserving Machine Learning in Untrusted Clouds Made Simple
- Title(参考訳): 信頼性のないクラウドにおけるプライバシ保護機械学習の簡易化
- Authors: Dayeol Lee, Dmitrii Kuvaiskii, Anjo Vahldiek-Oberwagner, Mona Vij
- Abstract要約: 非信頼なクラウドにプライバシ保護機械学習アプリケーションをデプロイするための実践的なフレームワークを提案する。
我々は、モデルパラメータと暗号化された入力データを備えたIntel SGXエンクレーブでPyTorch MLアプリケーションを動作させることで、修正されていないPyTorch MLアプリケーションを保護する。
私たちのアプローチは、マシンラーニングアプリケーションに対して完全に透過的です。開発者とエンドユーザは、いかなる方法でアプリケーションを変更する必要もありません。
- 参考スコア(独自算出の注目度): 2.3518279773643287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a practical framework to deploy privacy-preserving machine
learning (PPML) applications in untrusted clouds based on a trusted execution
environment (TEE). Specifically, we shield unmodified PyTorch ML applications
by running them in Intel SGX enclaves with encrypted model parameters and
encrypted input data to protect the confidentiality and integrity of these
secrets at rest and during runtime. We use the open-source Graphene library OS
with transparent file encryption and SGX-based remote attestation to minimize
porting effort and seamlessly provide file protection and attestation. Our
approach is completely transparent to the machine learning application: the
developer and the end-user do not need to modify the ML application in any way.
- Abstract(参考訳): 本稿では,信頼された実行環境(TEE)に基づいて,プライバシ保護機械学習(PPML)アプリケーションを信頼できないクラウドにデプロイする実践的フレームワークを提案する。
具体的には、暗号化されたモデルパラメータと暗号化された入力データでIntel SGXエンクレーブで実行することで、修正されていないPyTorch MLアプリケーションを保護する。
我々は、透過的なファイル暗号化とSGXベースのリモート認証を備えたオープンソースのGrapheneライブラリOSを使用して、ポーティングの労力を最小限に抑え、ファイル保護と認証をシームレスに提供する。
私たちのアプローチは、マシンラーニングアプリケーションに対して完全に透過的です。開発者とエンドユーザは、mlアプリケーションを変更する必要はありません。
関連論文リスト
- EmojiCrypt: Prompt Encryption for Secure Communication with Large
Language Models [41.090214475309516]
クラウドベースの大規模言語モデル(LLM)は、データ漏洩と機密情報への不正アクセスの重大なリスクを引き起こす。
本稿では,ユーザプライバシ保護のためのシンプルかつ効果的なメカニズムであるEmojiCryptを提案する。
論文 参考訳(メタデータ) (2024-02-08T17:57:11Z) - Instructional Fingerprinting of Large Language Models [61.16480641024264]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt
Engineer [60.44898240755332]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Privacy Side Channels in Machine Learning Systems [82.85919161427604]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
機械学習ライフサイクル全体にわたるサイドチャネルの4つのカテゴリを提案する。
我々の結果は、全体的なエンドツーエンドのプライバシー分析の必要性を示しています。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Integrating Homomorphic Encryption and Trusted Execution Technology for
Autonomous and Confidential Model Refining in Cloud [4.21388107490327]
同型暗号化と信頼性の高い実行環境技術は、自律的な計算の機密性を保護することができる。
モデル精錬方式の設計にこれらの2つの手法を統合することを提案する。
論文 参考訳(メタデータ) (2023-08-02T06:31:41Z) - HE-MAN -- Homomorphically Encrypted MAchine learning with oNnx models [0.23624125155742057]
ホモモルフィック暗号化(FHE)は、プライバシを諦めることなくMLサービスを使用する個人を可能にする、有望なテクニックである。
我々は、ONNXモデルと同型暗号化データとの推論をプライバシー保護するためのオープンソースの機械学習ツールセットであるHE-MANを紹介する。
HE-MANは以前の作業と比較して、ONNXフォーマットの幅広いMLモデルをサポートしているが、精度を犠牲にしない。
論文 参考訳(メタデータ) (2023-02-16T12:37:14Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - secureTF: A Secure TensorFlow Framework [1.1006321791711173]
secureTFは、クラウドインフラストラクチャのオンフローに基づいた分散機械学習フレームワークである。
SecureTFは、未修正のアプリケーションをサポートし、入力データ、MLモデル、アプリケーションコードのエンドツーエンドのセキュリティを提供する。
本稿では,本番環境におけるシステム設計選択とシステム配置に関する経験について報告する。
論文 参考訳(メタデータ) (2021-01-20T16:36:53Z) - Privacy-Preserving XGBoost Inference [0.6345523830122165]
採用の大きな障壁は、予測クエリの繊細な性質である。
プライバシ保護機械学習(PPML)の中心的な目標は、暗号化されたクエリをリモートMLサービスに送信できるようにすることだ。
プライバシを保存するXGBoost予測アルゴリズムを提案し,AWS SageMaker上で実証的に評価を行った。
論文 参考訳(メタデータ) (2020-11-09T21:46:07Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。