論文の概要: Citadel: Protecting Data Privacy and Model Confidentiality for
Collaborative Learning with SGX
- arxiv url: http://arxiv.org/abs/2105.01281v1
- Date: Tue, 4 May 2021 04:17:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 12:43:56.224386
- Title: Citadel: Protecting Data Privacy and Model Confidentiality for
Collaborative Learning with SGX
- Title(参考訳): citadel: sgxによる協調学習のためのデータプライバシ保護とモデル機密性
- Authors: Chengliang Zhang, Junzhe Xia, Baichen Yang, Huancheng Puyang, Wei
Wang, Ruichuan Chen, Istemi Ekin Akkus, Paarijaat Aditya, Feng Yan
- Abstract要約: 本論文では、信頼できないインフラストラクチャにおけるデータ所有者とモデル所有者の両方のプライバシーを保護するスケーラブルな協調MLシステムであるCitadelについて紹介する。
C Citadelは、データオーナに代わって実行される複数のトレーニングエンクレーブと、モデルオーナのためにアグリゲータエンクレーブに分散トレーニングを実行する。
既存のSGX保護トレーニングシステムと比較して、Citadelはより優れたスケーラビリティと協調MLのより強力なプライバシー保証を可能にします。
- 参考スコア(独自算出の注目度): 5.148111464782033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advancement of machine learning (ML) and its growing awareness, many
organizations who own data but not ML expertise (data owner) would like to pool
their data and collaborate with those who have expertise but need data from
diverse sources to train truly generalizable models (model owner). In such
collaborative ML, the data owner wants to protect the privacy of its training
data, while the model owner desires the confidentiality of the model and the
training method which may contain intellectual properties. However, existing
private ML solutions, such as federated learning and split learning, cannot
meet the privacy requirements of both data and model owners at the same time.
This paper presents Citadel, a scalable collaborative ML system that protects
the privacy of both data owner and model owner in untrusted infrastructures
with the help of Intel SGX. Citadel performs distributed training across
multiple training enclaves running on behalf of data owners and an aggregator
enclave on behalf of the model owner. Citadel further establishes a strong
information barrier between these enclaves by means of zero-sum masking and
hierarchical aggregation to prevent data/model leakage during collaborative
training. Compared with the existing SGX-protected training systems, Citadel
enables better scalability and stronger privacy guarantees for collaborative
ML. Cloud deployment with various ML models shows that Citadel scales to a
large number of enclaves with less than 1.73X slowdown caused by SGX.
- Abstract(参考訳): 機械学習(ML)の進歩とその認識の高まりにより、データを所有しているがMLの専門知識(データ所有者)を持たない多くの組織は、データをプールし、専門知識を持っているが、真に一般化可能なモデル(モデル所有者)をトレーニングするために、さまざまなソースのデータを必要としている人々と協力したいと考えている。
このようなコラボレーティブMLでは、データ所有者はトレーニングデータのプライバシ保護を希望し、モデル所有者はモデルの機密性と知的財産を含む可能性のあるトレーニング方法を望む。
しかし、フェデレーション付き学習や分割学習のような既存のプライベートMLソリューションは、データとモデル所有者の両方のプライバシ要件を同時に満たすことはできない。
本稿では,Intel SGXの助けを借りて,信頼できないインフラストラクチャにおいてデータ所有者とモデル所有者の両方のプライバシを保護する,スケーラブルな協調型MLシステムであるCitadelを提案する。
Citadelは、データオーナに代わって実行される複数のトレーニングエンクレーブと、モデルオーナのためにアグリゲータエンクレーブに分散トレーニングを実行する。
Citadelはさらに、ゼロサムマスキングと階層的なアグリゲーションによって、これらのエンクレーブ間の強力な情報バリアを確立し、協調トレーニング中のデータ/モデル漏洩を防止する。
既存のSGX保護トレーニングシステムと比較して、Citadelはより優れたスケーラビリティとより強力なプライバシ保証を実現する。
さまざまなMLモデルによるクラウドデプロイメントは、SGXによる1.73倍のスローダウンで、Citadelを多数のエンクレーブにスケールすることを示している。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - KnowledgeSG: Privacy-Preserving Synthetic Text Generation with Knowledge Distillation from Server [48.04903443425111]
大規模言語モデル (LLM) は、多くの当事者が自身のプライベートデータでLPMを微調整できるようにする。
置換のために合成データを利用するような既存のソリューションは、同時にパフォーマンスを改善し、プライバシを保存するのに苦労している。
我々は、合成データ品質を高め、プライバシを確保しつつモデル性能を向上させる新しいクライアントサーバフレームワークであるKnowledgeSGを提案する。
論文 参考訳(メタデータ) (2024-10-08T06:42:28Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Decentralised, Collaborative, and Privacy-preserving Machine Learning for Multi-Hospital Data [31.106733834322394]
マルチホスピタルデータ(DeCaPH)のための分散型・協調型・プライバシ保護型MLを提案する。
実世界の分散医療データセットを用いた3つのタスクにおけるDeCaPHの一般化可能性とパワーを実証する。
論文 参考訳(メタデータ) (2024-01-31T22:06:10Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - CaPC Learning: Confidential and Private Collaborative Learning [30.403853588224987]
本研究では,機密性とプライバシの両方を協調的に達成する最初の手法である,機密・私的協調学習(CaPC)を導入する。
参加者がトレーニングセットに明示的に参加したり、中央モデルをトレーニングする必要なしに、CaPCがコラボレーションを可能にする方法を紹介します。
論文 参考訳(メタデータ) (2021-02-09T23:50:24Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - When Machine Unlearning Jeopardizes Privacy [25.167214892258567]
機械学習による意図しない情報漏洩について検討する。
高い性能を実現する新しいメンバーシップ推論攻撃を提案する。
我々の結果は、機械学習の実践的な実装におけるプライバシー保護の改善に役立つ。
論文 参考訳(メタデータ) (2020-05-05T14:11:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。