論文の概要: Efficient Node Selection in Private Personalized Decentralized Learning
- arxiv url: http://arxiv.org/abs/2301.12755v2
- Date: Mon, 15 Jan 2024 15:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 03:22:37.152656
- Title: Efficient Node Selection in Private Personalized Decentralized Learning
- Title(参考訳): 個人個別分散学習における効率的なノード選択
- Authors: Edvin Listo Zec, Johan \"Ostman, Olof Mogren, Daniel Gillblad
- Abstract要約: ノードのプライバシを保護するために,プライベート・パーソナライズド・デカライズド・ラーニング(PPDL)を提案する。
PPDLは、セキュアアグリゲーションと相関した対向多武装帯域最適化を組み合わせたものである。
PPDLは標準ベンチマークのモデル性能において従来の非プライベートな手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 3.7784910521656654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized decentralized learning is a promising paradigm for distributed
learning, enabling each node to train a local model on its own data and
collaborate with other nodes to improve without sharing any data. However, this
approach poses significant privacy risks, as nodes may inadvertently disclose
sensitive information about their data or preferences through their
collaboration choices. In this paper, we propose Private Personalized
Decentralized Learning (PPDL), a novel approach that combines secure
aggregation and correlated adversarial multi-armed bandit optimization to
protect node privacy while facilitating efficient node selection. By leveraging
dependencies between different arms, represented by potential collaborators, we
demonstrate that PPDL can effectively identify suitable collaborators solely
based on aggregated models. Additionally, we show that PPDL surpasses previous
non-private methods in model performance on standard benchmarks under label and
covariate shift scenarios.
- Abstract(参考訳): パーソナライズされた分散学習は分散学習にとって有望なパラダイムであり、各ノードが自身のデータ上でローカルモデルをトレーニングし、データを共有せずに他のノードと協調して改善することができる。
しかしこのアプローチは、ノードが自分たちのデータや好みに関する機密情報を、コラボレーションの選択を通じて不注意に開示する可能性があるため、重大なプライバシーリスクを引き起こす。
本稿では,ノードのプライバシーを保護し,効率的なノード選択を容易にするために,セキュアなアグリゲーションと相関する多腕バンディット最適化を組み合わせた新しいアプローチであるプライベートパーソナライズド分散学習(PPDL)を提案する。
協力者候補に代表される異なるアーム間の依存関係を利用することで,ppdlは,集約モデルのみに基づいて,適切な協調者を効果的に識別できることを実証する。
さらに,ppdlはラベルや共変量シフトのシナリオにおいて,標準ベンチマークのモデル性能において従来の非プライベートメソッドを上回っていることを示す。
関連論文リスト
- Approximate Gradient Coding for Privacy-Flexible Federated Learning with Non-IID Data [9.984630251008868]
この研究は、フェデレートラーニングにおける非IIDデータとストラグラー/ドロップアウトの課題に焦点を当てる。
クライアントのローカルデータの一部を非プライベートとしてモデル化する、プライバシフレキシブルなパラダイムを導入し、検討する。
論文 参考訳(メタデータ) (2024-04-04T15:29:50Z) - Differentially Private Decentralized Learning with Random Walks [8.379286663107845]
ランダムウォークアルゴリズムを用いて分散学習のプライバシー保証を特徴付ける。そこでは、あるノードから別のノードへ通信グラフのエッジに沿って移動することで、モデルを更新する。
その結果、ランダムウォークアルゴリズムは、互いに近接するノードに対するゴシップアルゴリズムよりも、より優れたプライバシ保証をもたらす傾向があることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-12T08:16:58Z) - Differentially Private Model-Based Offline Reinforcement Learning [51.1231068185106]
DP-MORLは差分プライバシーを保証するアルゴリズムである。
環境のプライベートモデルは、まずオフラインデータから学習される。
次に、モデルベースのポリシー最適化を使用して、プライベートモデルからポリシーを導出します。
論文 参考訳(メタデータ) (2024-02-08T10:05:11Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Decentralized Deep Learning with Consensus
Algorithms [10.208363125551555]
協調的な分散ディープラーニングは、通信エージェント間の直接的な情報交換に依存している。
信頼できない隣人エージェントとのパラメータ共有は、ローカルデータセットに関する悪用可能な情報を漏洩させる可能性がある。
協調訓練の前後で各エージェントの局所的データセットを確保できる分別的私的分散学習を導入する。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Personalized Graph Federated Learning with Differential Privacy [6.282767337715445]
本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
論文 参考訳(メタデータ) (2023-06-10T09:52:01Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。