論文の概要: S3ML: A Secure Serving System for Machine Learning Inference
- arxiv url: http://arxiv.org/abs/2010.06212v1
- Date: Tue, 13 Oct 2020 07:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:39:54.464797
- Title: S3ML: A Secure Serving System for Machine Learning Inference
- Title(参考訳): S3ML: 機械学習推論のためのセキュアサービングシステム
- Authors: Junming Ma, Chaofan Yu, Aihui Zhou, Bingzhe Wu, Xibin Wu, Xingyu Chen,
Xiangqun Chen, Lei Wang, Donggang Cao
- Abstract要約: 機械学習推論のためのセキュアなサービスシステムであるS3MLを提案する。
S3MLは、ユーザのプライバシを保護するためにIntel SGX Enclavesで機械学習モデルを実行する。
- 参考スコア(独自算出の注目度): 15.994551402176189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present S3ML, a secure serving system for machine learning inference in
this paper. S3ML runs machine learning models in Intel SGX enclaves to protect
users' privacy. S3ML designs a secure key management service to construct
flexible privacy-preserving server clusters and proposes novel SGX-aware load
balancing and scaling methods to satisfy users' Service-Level Objectives. We
have implemented S3ML based on Kubernetes as a low-overhead, high-available,
and scalable system. We demonstrate the system performance and effectiveness of
S3ML through extensive experiments on a series of widely-used models.
- Abstract(参考訳): 本稿では,機械学習推論のためのセキュアサービスシステムであるS3MLを提案する。
S3MLは、ユーザのプライバシを保護するためにIntel SGX Enclavesで機械学習モデルを実行する。
S3MLは、フレキシブルなプライバシ保護サーバクラスタを構築するためのセキュアなキー管理サービスを設計し、ユーザのサービスレベルオブジェクトを満たすための新しいSGX対応ロードバランシングとスケーリング方法を提案する。
当社では、KubernetesをベースとしたS3MLを、低オーバーヘッド、高可用性、スケーラブルなシステムとして実装しています。
本研究では,S3MLのシステム性能と実効性を示す。
関連論文リスト
- Props for Machine-Learning Security [19.71019731367118]
Propsは、マシンラーニング(ML)のためのディープウェブデータへのアクセスを認証し、プライバシ保護するための保護されたパイプラインである
Propsはまた、プライバシ保護の信頼性と推論形式を可能にし、MLアプリケーションで機密データを安全に使用できるようにする。
論文 参考訳(メタデータ) (2024-10-27T17:05:48Z) - SWITCH: An Exemplar for Evaluating Self-Adaptive ML-Enabled Systems [1.2277343096128712]
QoS(Quality of Service)の維持にはMLS(Machine Learning-Enabled Systems)が不可欠である
機械学習モデルバランサ(Machine Learning Model Balancer)は、動的MLモデルの切り替えを容易にすることで、これらの不確実性に対処する概念である。
本稿では,このようなシステムにおける自己適応能力を高めるために開発されたSWITCHを紹介する。
論文 参考訳(メタデータ) (2024-02-09T11:56:44Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Class-Level Confidence Based 3D Semi-Supervised Learning [18.95161296147023]
ラベル付きデータのクラスレベルの信頼度は,3次元不均衡データセットの学習状況を表すことができることを示す。
本手法は,3次元SSL分類および検出タスクにおいて,最先端技術よりも優れる。
論文 参考訳(メタデータ) (2022-10-18T20:13:28Z) - Special Session: Towards an Agile Design Methodology for Efficient,
Reliable, and Secure ML Systems [12.53463551929214]
現代の機械学習システムは、ハードウェア障害に対する高い信頼性と、敵やIP盗難攻撃に対する安全性が期待されている。
プライバシーに関する懸念も一段落している。
この記事では、効率的で信頼性があり、セキュアなMLシステムのアジャイル開発における主な課題を要約する。
論文 参考訳(メタデータ) (2022-04-18T17:29:46Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Plinius: Secure and Persistent Machine Learning Model Training [2.1375296464337086]
永続メモリ(PM)は(DRAMとは違い)電力損失に耐性がある
MLモデルの安全なトレーニングにIntel SGXエンクレーブを使用するフレームワークであるPLINIUSと、フォールトトレランス保証にPMを提案する。
論文 参考訳(メタデータ) (2021-04-07T08:35:59Z) - SemiNLL: A Framework of Noisy-Label Learning by Semi-Supervised Learning [58.26384597768118]
SemiNLLはSS戦略とSSLモデルをエンドツーエンドで組み合わせた汎用フレームワークである。
我々のフレームワークは、様々なSS戦略やSSLバックボーンを吸収し、そのパワーを利用して有望なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-12-02T01:49:47Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。