論文の概要: SeSeMI: Secure Serverless Model Inference on Sensitive Data
- arxiv url: http://arxiv.org/abs/2412.11640v1
- Date: Mon, 16 Dec 2024 10:37:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:53:37.079314
- Title: SeSeMI: Secure Serverless Model Inference on Sensitive Data
- Title(参考訳): SeSeMI: 機密データに対するセキュアなサーバレスモデル推論
- Authors: Guoyu Hu, Yuncheng Wu, Gang Chen, Tien Tuan Anh Dinh, Beng Chin Ooi,
- Abstract要約: 既存のクラウドベースのモデル推論システムは費用がかかり、スケールするのは簡単ではない。
我々の目標は、信頼できないクラウドプロバイダからモデルとユーザ要求データを保護するサーバーレスモデル推論システムの設計です。
セキュアで効率的で費用対効果の高いサーバレスモデル推論システムであるSeSeMIを提案する。
- 参考スコア(独自算出の注目度): 14.820151992047089
- License:
- Abstract: Model inference systems are essential for implementing end-to-end data analytics pipelines that deliver the benefits of machine learning models to users. Existing cloud-based model inference systems are costly, not easy to scale, and must be trusted in handling the models and user request data. Serverless computing presents a new opportunity, as it provides elasticity and fine-grained pricing. Our goal is to design a serverless model inference system that protects models and user request data from untrusted cloud providers. It offers high performance and low cost, while requiring no intrusive changes to the current serverless platforms. To realize our goal, we leverage trusted hardware. We identify and address three challenges in using trusted hardware for serverless model inference. These challenges arise from the high-level abstraction of serverless computing, the performance overhead of trusted hardware, and the characteristics of model inference workloads. We present SeSeMI, a secure, efficient, and cost-effective serverless model inference system. It adds three novel features non-intrusively to the existing serverless infrastructure and nothing else.The first feature is a key service that establishes secure channels between the user and the serverless instances, which also provides access control to models and users' data. The second is an enclave runtime that allows one enclave to process multiple concurrent requests. The final feature is a model packer that allows multiple models to be executed by one serverless instance. We build SeSeMI on top of Apache OpenWhisk, and conduct extensive experiments with three popular machine learning models. The results show that SeSeMI achieves low latency and low cost at scale for realistic workloads.
- Abstract(参考訳): モデル推論システムは、マシンラーニングモデルの利点をユーザに提供するエンドツーエンドのデータ分析パイプラインを実装するために不可欠である。
既存のクラウドベースのモデル推論システムは費用がかかり、スケールするのは簡単ではない。
サーバレスコンピューティングは、弾力性ときめ細かい価格を提供するため、新しい機会を提供する。
我々の目標は、信頼できないクラウドプロバイダからモデルとユーザ要求データを保護するサーバーレスモデル推論システムの設計です。
パフォーマンスと低コストを提供すると同時に、現在のサーバレスプラットフォームに侵入的な変更を加える必要もない。
目標を達成するために、信頼されたハードウェアを活用します。
我々は、サーバーレスモデル推論に信頼できるハードウェアを使用する際の3つの課題を特定し、対処する。
これらの課題は、サーバレスコンピューティングのハイレベルな抽象化、信頼性のあるハードウェアのパフォーマンスオーバーヘッド、モデル推論ワークロードの特性から生じる。
セキュアで効率的で費用対効果の高いサーバレスモデル推論システムであるSeSeMIを提案する。
最初の機能は、ユーザとサーバレスインスタンス間のセキュアなチャネルを確立するキーサービスであり、モデルとユーザのデータへのアクセス制御も提供する。
2つ目はEnclaveランタイムで、1つのEnclaveが複数の同時リクエストを処理できるようにする。
最後の機能は、複数のモデルをひとつのサーバレスインスタンスで実行可能にするモデルパッカーである。
私たちはApache OpenWhisk上にSeSeMIを構築し、3つの一般的な機械学習モデルで広範な実験を行います。
その結果,SeSeMIは現実的なワークロードに対して,低レイテンシと低コストのスケールを実現していることがわかった。
関連論文リスト
- Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Partially Oblivious Neural Network Inference [4.843820624525483]
CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-27T05:39:36Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Serverless Model Serving for Data Science [23.05534539170047]
データサイエンスアプリケーションのための主流モデルとしてのサーバーレスの実現可能性について検討する。
サーバーレスは、コストとパフォーマンスに関して多くのクラウドベースの代替手段を上回っています。
スケーラブルで費用対効果の高いモデルサービスにサーバレスを使用する方法について、データサイエンティストにいくつかの推奨事項を提示します。
論文 参考訳(メタデータ) (2021-03-04T11:23:01Z) - Serverless inferencing on Kubernetes [0.0]
我々は、サーバレス機械学習推論ソリューションを提供するために、KNativeサーバレスパラダイムに基づいて構築されたKFServingプロジェクトについて議論する。
GPUベースの推論を自動スケーリングする際の課題の解決方法を示し、本番環境での使用から学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-07-14T21:23:59Z) - Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning [96.38757904624208]
モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
論文 参考訳(メタデータ) (2020-05-05T21:23:45Z) - Corella: A Private Multi Server Learning Approach based on Correlated
Queries [30.3330177204504]
データプライバシーを保護する代替手段として、$textitCorella$を提案する。
提案手法はサーバのクラスタに依存しており,少なくともmathbbN$のTは,それぞれが学習モデルを実行することでコロードを行うことができる。
ノイズのばらつきは、情報漏洩を最大$T$サーバの任意のサブセットに、理論的に無視できるほど大きく設定されている。
論文 参考訳(メタデータ) (2020-03-26T17:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。