論文の概要: Protecting Confidentiality, Privacy and Integrity in Collaborative Learning
- arxiv url: http://arxiv.org/abs/2412.08534v1
- Date: Wed, 11 Dec 2024 16:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:02:38.010891
- Title: Protecting Confidentiality, Privacy and Integrity in Collaborative Learning
- Title(参考訳): 協調学習における信頼・プライバシ・統合の保護
- Authors: Dong Chen, Alice Dethise, Istemi Ekin Akkus, Ivica Rimac, Klaus Satzke, Antti Koskela, Marco Canini, Wei Wang, Ruichuan Chen,
- Abstract要約: 効果的な機械学習(ML)トレーニングを促進するためには、データセット所有者とモデル所有者のコラボレーションが必要である。
Citadel++は、データセット、モデル、トレーニングコードの機密性と、個々のユーザのプライバシを同時に保護するために設計された、スケーラブルなコラボレーティブMLトレーニングシステムである。
我々の実験によると、Citadel++はプライバシ、モデルユーティリティ、パフォーマンスを提供し、データセットのオーナとモデルのオーナのプライバシとプライバシ要件に準拠しています。
- 参考スコア(独自算出の注目度): 13.97712239441817
- License:
- Abstract: A collaboration between dataset owners and model owners is needed to facilitate effective machine learning (ML) training. During this collaboration, however, dataset owners and model owners want to protect the confidentiality of their respective assets (i.e., datasets, models and training code), with the dataset owners also caring about the privacy of individual users whose data is in their datasets. Existing solutions either provide limited confidentiality for models and training code, or suffer from privacy issues due to collusion. We present Citadel++, a scalable collaborative ML training system designed to simultaneously protect the confidentiality of datasets, models and training code, as well as the privacy of individual users. Citadel++ enhances differential privacy techniques to safeguard the privacy of individual user data while maintaining model utility. By employing Virtual Machine-level Trusted Execution Environments (TEEs) and improved integrity protection techniques through various OS-level mechanisms, Citadel++ effectively preserves the confidentiality of datasets, models and training code, and enforces our privacy mechanisms even when the models and training code have been maliciously designed. Our experiments show that Citadel++ provides privacy, model utility and performance while adhering to confidentiality and privacy requirements of dataset owners and model owners, outperforming the state-of-the-art privacy-preserving training systems by up to 543x on CPU and 113x on GPU TEEs.
- Abstract(参考訳): 効果的な機械学習(ML)トレーニングを促進するためには、データセット所有者とモデル所有者のコラボレーションが必要である。
しかし、このコラボレーションの間、データセット所有者とモデル所有者は、データセットの機密性(データセット、モデル、トレーニングコードなど)を守りたいと考えている。
既存のソリューションは、モデルとトレーニングコードに対して限定的な機密性を提供するか、あるいは共謀によるプライバシの問題に悩まされる。
Citadel++は、データセット、モデル、トレーニングコードの機密性と、個々のユーザのプライバシを同時に保護するために設計された、スケーラブルなコラボレーティブMLトレーニングシステムである。
Citadel++は、モデルのユーティリティを維持しながら、個々のユーザデータのプライバシを保護するために、差分プライバシ技術を強化する。
Citadel++は、仮想マシンレベルのTrusted Execution Environment(TEEs)を採用し、さまざまなOSレベルのメカニズムによる整合性保護技術の改善によって、データセットやモデル、トレーニングコードの機密性を効果的に保護し、モデルやトレーニングコードが悪意ある設計であっても、私たちのプライバシメカニズムを強制します。
我々の実験では、Citadel++がプライバシ、モデルユーティリティ、パフォーマンスを提供しながら、データセット所有者とモデル所有者のプライバシ要件とプライバシ要件に準拠しており、CPU上では最大543倍、GPU TEE上では113倍という最先端のプライバシ保存トレーニングシステムよりも優れています。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Citadel: Protecting Data Privacy and Model Confidentiality for
Collaborative Learning with SGX [5.148111464782033]
本論文では、信頼できないインフラストラクチャにおけるデータ所有者とモデル所有者の両方のプライバシーを保護するスケーラブルな協調MLシステムであるCitadelについて紹介する。
C Citadelは、データオーナに代わって実行される複数のトレーニングエンクレーブと、モデルオーナのためにアグリゲータエンクレーブに分散トレーニングを実行する。
既存のSGX保護トレーニングシステムと比較して、Citadelはより優れたスケーラビリティと協調MLのより強力なプライバシー保証を可能にします。
論文 参考訳(メタデータ) (2021-05-04T04:17:29Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。