論文の概要: CaPC Learning: Confidential and Private Collaborative Learning
- arxiv url: http://arxiv.org/abs/2102.05188v1
- Date: Tue, 9 Feb 2021 23:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:27:15.917156
- Title: CaPC Learning: Confidential and Private Collaborative Learning
- Title(参考訳): CaPCラーニング:機密性とプライベートなコラボレーション学習
- Authors: Christopher A. Choquette-Choo, Natalie Dullerud, Adam Dziedzic,
Yunxiang Zhang, Somesh Jha, Nicolas Papernot, Xiao Wang
- Abstract要約: 本研究では,機密性とプライバシの両方を協調的に達成する最初の手法である,機密・私的協調学習(CaPC)を導入する。
参加者がトレーニングセットに明示的に参加したり、中央モデルをトレーニングする必要なしに、CaPCがコラボレーションを可能にする方法を紹介します。
- 参考スコア(独自算出の注目度): 30.403853588224987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning benefits from large training datasets, which may not always
be possible to collect by any single entity, especially when using
privacy-sensitive data. In many contexts, such as healthcare and finance,
separate parties may wish to collaborate and learn from each other's data but
are prevented from doing so due to privacy regulations. Some regulations
prevent explicit sharing of data between parties by joining datasets in a
central location (confidentiality). Others also limit implicit sharing of data,
e.g., through model predictions (privacy). There is currently no method that
enables machine learning in such a setting, where both confidentiality and
privacy need to be preserved, to prevent both explicit and implicit sharing of
data. Federated learning only provides confidentiality, not privacy, since
gradients shared still contain private information. Differentially private
learning assumes unreasonably large datasets. Furthermore, both of these
learning paradigms produce a central model whose architecture was previously
agreed upon by all parties rather than enabling collaborative learning where
each party learns and improves their own local model. We introduce Confidential
and Private Collaborative (CaPC) learning, the first method provably achieving
both confidentiality and privacy in a collaborative setting. We leverage secure
multi-party computation (MPC), homomorphic encryption (HE), and other
techniques in combination with privately aggregated teacher models. We
demonstrate how CaPC allows participants to collaborate without having to
explicitly join their training sets or train a central model. Each party is
able to improve the accuracy and fairness of their model, even in settings
where each party has a model that performs well on their own dataset or when
datasets are not IID and model architectures are heterogeneous across parties.
- Abstract(参考訳): マシンラーニングは、特にプライバシに敏感なデータを使用する場合において、単一のエンティティで収集できるとは限らない大規模なトレーニングデータセットのメリットを享受する。
医療や金融など、多くの文脈において、個別の当事者は互いに協力し合い、互いのデータから学びたがるが、プライバシー規制のためにそれができない。
いくつかの規則は、中央の場所(秘密性)でデータセットを結合することで、当事者間でデータの明示的な共有を防止する。
また、モデル予測(プライバシー)によるデータの暗黙的な共有も制限されている。
このような設定では、データの明示的および暗黙的な共有を防ぐため、機密性およびプライバシーの両方を保持する必要がある機械学習を可能にする方法は今のところありません。
フェデレートされた学習は、プライバシーではなく機密性のみを提供する。
異なるプライベートな学習は、不当に大きなデータセットを仮定する。
さらに、これらの学習パラダイムはどちらも、各パーティが独自のローカルモデルを学び、改善する共同学習を実現するのではなく、これまですべてのパーティがアーキテクチャに合意していた中心的なモデルを生み出します。
秘密とプライバシーの両方を共同で実現する最初の方法である秘密とプライベートコラボレーション(CaPC)学習を紹介します。
我々は,セキュアなマルチパーティ計算 (MPC) や同相暗号 (HE) などの手法を,個人で集約した教師モデルと組み合わせて活用する。
参加者がトレーニングセットに明示的に参加したり、中央モデルをトレーニングしたりすることなく、CaPCが協力する方法を実証します。
各パーティは、各パーティが自身のデータセットでうまく機能するモデルを持っている場合や、データセットがIDIでなく、モデルアーキテクチャがパーティ間で異質である場合であっても、モデルの正確性と公平性を改善することができる。
関連論文リスト
- Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - ABG: A Multi-Party Mixed Protocol Framework for Privacy-Preserving
Cooperative Learning [13.212198032364363]
本稿では、さまざまなデータ所有者が機械学習に協力できるプライバシー保護型多人数協調学習システムを提案する。
また,ロジスティック回帰やニューラルネットワークなど,一般的な機械学習手法に対して,特定のプライバシ保護計算プロトコルを設計する。
実験の結果,特に低レイテンシのネットワーク環境において,ABG$n$は優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-07T03:57:57Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - The Cost of Privacy in Asynchronous Differentially-Private Machine
Learning [17.707240607542236]
我々は、複数のプライベートデータセット上で機械学習モデルを協調訓練するための、微分プライベート非同期アルゴリズムを開発した。
中央学習者は、通信可能なときに、プライベートデータ所有者と1対1で対話する。
提案したプライバシ保存非同期アルゴリズムの性能を予測できることを実証する。
論文 参考訳(メタデータ) (2020-03-18T23:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。