論文の概要: A Scalable Approach for Privacy-Preserving Collaborative Machine
Learning
- arxiv url: http://arxiv.org/abs/2011.01963v1
- Date: Tue, 3 Nov 2020 19:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:44:48.925314
- Title: A Scalable Approach for Privacy-Preserving Collaborative Machine
Learning
- Title(参考訳): プライバシー保護型協調機械学習のためのスケーラブルなアプローチ
- Authors: Jinhyun So, Basak Guler, A. Salman Avestimehr
- Abstract要約: COPMLは、スケーラビリティとプライバシ保護を同時に実現する、完全に分散化されたトレーニングフレームワークである。
我々はCOPMLのプライバシー分析を行い、その収束性を証明する。
我々は,COPMLがベンチマークプロトコル上でのトレーニングにおいて,大幅な高速化を実現することを実験的に実証した。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a collaborative learning scenario in which multiple data-owners
wish to jointly train a logistic regression model, while keeping their
individual datasets private from the other parties. We propose COPML, a
fully-decentralized training framework that achieves scalability and
privacy-protection simultaneously. The key idea of COPML is to securely encode
the individual datasets to distribute the computation load effectively across
many parties and to perform the training computations as well as the model
updates in a distributed manner on the securely encoded data. We provide the
privacy analysis of COPML and prove its convergence. Furthermore, we
experimentally demonstrate that COPML can achieve significant speedup in
training over the benchmark protocols. Our protocol provides strong statistical
privacy guarantees against colluding parties (adversaries) with unbounded
computational power, while achieving up to $16\times$ speedup in the training
time against the benchmark protocols.
- Abstract(参考訳): 我々は,複数のデータ所有者が協調的にロジスティック回帰モデルを訓練し,個々のデータセットを相互にプライベートにしたいという協調学習シナリオを検討する。
我々は,スケーラビリティとプライバシ保護を同時に実現する,完全に分散化されたトレーニングフレームワークCOPMLを提案する。
COPMLのキーとなる考え方は、個々のデータセットをセキュアにエンコードして、多くのパーティに効率的に計算負荷を分散させ、セキュアにエンコードされたデータに対して、トレーニング計算とモデルの更新を分散的に行うことである。
我々はCOPMLのプライバシー分析を行い、その収束性を証明する。
さらに,ベンチマークプロトコル上でのトレーニングにおいてCOPMLが大幅に高速化できることを実験的に実証した。
当社のプロトコルは,非有界な計算能力を持つ当事者(管理者)に対する強力な統計的プライバシ保証を提供すると同時に,ベンチマークプロトコルに対するトレーニング時間の最大16\times$スピードアップを実現している。
関連論文リスト
- The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - A Quantization-based Technique for Privacy Preserving Distributed Learning [2.2139875218234475]
本稿では,機械学習モデルの分散トレーニングのための,新しい規則に準拠したデータ保護手法について述べる。
本手法は,Hash-Combとランダム化を組み合わせた量子化マルチハッシュデータ表現に基づくプロトコルを用いることで,トレーニングデータとMLモデルパラメータの両方を保護する。
論文 参考訳(メタデータ) (2024-06-26T14:54:12Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Scotch: An Efficient Secure Computation Framework for Secure Aggregation [0.0]
フェデレーション学習は、複数のデータ所有者がプライベートデータセットを公開せずに、機械学習モデルを共同でトレーニングすることを可能にする。
悪意のある集約サーバは、モデルパラメータを使用して、使用したトレーニングデータセットに関する機密情報を導き出すことができる。
フェデレーションアグリゲーションのための分散化テキストitm-partyセキュア計算フレームワークであるtextscScotch を提案する。
論文 参考訳(メタデータ) (2022-01-19T17:16:35Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。