論文の概要: Citadel: Protecting Data Privacy and Model Confidentiality for
Collaborative Learning with SGX
- arxiv url: http://arxiv.org/abs/2105.01281v1
- Date: Tue, 4 May 2021 04:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 12:43:56.224386
- Title: Citadel: Protecting Data Privacy and Model Confidentiality for
Collaborative Learning with SGX
- Title(参考訳): citadel: sgxによる協調学習のためのデータプライバシ保護とモデル機密性
- Authors: Chengliang Zhang, Junzhe Xia, Baichen Yang, Huancheng Puyang, Wei
Wang, Ruichuan Chen, Istemi Ekin Akkus, Paarijaat Aditya, Feng Yan
- Abstract要約: 本論文では、信頼できないインフラストラクチャにおけるデータ所有者とモデル所有者の両方のプライバシーを保護するスケーラブルな協調MLシステムであるCitadelについて紹介する。
C Citadelは、データオーナに代わって実行される複数のトレーニングエンクレーブと、モデルオーナのためにアグリゲータエンクレーブに分散トレーニングを実行する。
既存のSGX保護トレーニングシステムと比較して、Citadelはより優れたスケーラビリティと協調MLのより強力なプライバシー保証を可能にします。
- 参考スコア(独自算出の注目度): 5.148111464782033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancement of machine learning (ML) and its growing awareness, many
organizations who own data but not ML expertise (data owner) would like to pool
their data and collaborate with those who have expertise but need data from
diverse sources to train truly generalizable models (model owner). In such
collaborative ML, the data owner wants to protect the privacy of its training
data, while the model owner desires the confidentiality of the model and the
training method which may contain intellectual properties. However, existing
private ML solutions, such as federated learning and split learning, cannot
meet the privacy requirements of both data and model owners at the same time.
This paper presents Citadel, a scalable collaborative ML system that protects
the privacy of both data owner and model owner in untrusted infrastructures
with the help of Intel SGX. Citadel performs distributed training across
multiple training enclaves running on behalf of data owners and an aggregator
enclave on behalf of the model owner. Citadel further establishes a strong
information barrier between these enclaves by means of zero-sum masking and
hierarchical aggregation to prevent data/model leakage during collaborative
training. Compared with the existing SGX-protected training systems, Citadel
enables better scalability and stronger privacy guarantees for collaborative
ML. Cloud deployment with various ML models shows that Citadel scales to a
large number of enclaves with less than 1.73X slowdown caused by SGX.
- Abstract(参考訳): 機械学習(ML)の進歩とその認識の高まりにより、データを所有しているがMLの専門知識(データ所有者)を持たない多くの組織は、データをプールし、専門知識を持っているが、真に一般化可能なモデル(モデル所有者)をトレーニングするために、さまざまなソースのデータを必要としている人々と協力したいと考えている。
このようなコラボレーティブMLでは、データ所有者はトレーニングデータのプライバシ保護を希望し、モデル所有者はモデルの機密性と知的財産を含む可能性のあるトレーニング方法を望む。
しかし、フェデレーション付き学習や分割学習のような既存のプライベートMLソリューションは、データとモデル所有者の両方のプライバシ要件を同時に満たすことはできない。
本稿では,Intel SGXの助けを借りて,信頼できないインフラストラクチャにおいてデータ所有者とモデル所有者の両方のプライバシを保護する,スケーラブルな協調型MLシステムであるCitadelを提案する。
Citadelは、データオーナに代わって実行される複数のトレーニングエンクレーブと、モデルオーナのためにアグリゲータエンクレーブに分散トレーニングを実行する。
Citadelはさらに、ゼロサムマスキングと階層的なアグリゲーションによって、これらのエンクレーブ間の強力な情報バリアを確立し、協調トレーニング中のデータ/モデル漏洩を防止する。
既存のSGX保護トレーニングシステムと比較して、Citadelはより優れたスケーラビリティとより強力なプライバシ保証を実現する。
さまざまなMLモデルによるクラウドデプロイメントは、SGXによる1.73倍のスローダウンで、Citadelを多数のエンクレーブにスケールすることを示している。
関連論文リスト
- Decentralised, Collaborative, and Privacy-preserving Machine Learning
for Multi-Hospital Data [32.44650727335398]
マルチホスピタルデータ(DeCaPH)のための分散型・協調型・プライバシ保護型MLを提案する。
実世界の分散医療データセットを用いた3つのタスクにおけるDeCaPHの一般化可能性とパワーを実証する。
論文 参考訳(メタデータ) (2024-01-31T22:06:10Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - CaPC Learning: Confidential and Private Collaborative Learning [30.403853588224987]
本研究では,機密性とプライバシの両方を協調的に達成する最初の手法である,機密・私的協調学習(CaPC)を導入する。
参加者がトレーニングセットに明示的に参加したり、中央モデルをトレーニングする必要なしに、CaPCがコラボレーションを可能にする方法を紹介します。
論文 参考訳(メタデータ) (2021-02-09T23:50:24Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - When Machine Unlearning Jeopardizes Privacy [25.167214892258567]
機械学習による意図しない情報漏洩について検討する。
高い性能を実現する新しいメンバーシップ推論攻撃を提案する。
我々の結果は、機械学習の実践的な実装におけるプライバシー保護の改善に役立つ。
論文 参考訳(メタデータ) (2020-05-05T14:11:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。