論文の概要: Graph-Homomorphic Perturbations for Private Decentralized Learning
- arxiv url: http://arxiv.org/abs/2010.12288v1
- Date: Fri, 23 Oct 2020 10:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 00:28:40.422601
- Title: Graph-Homomorphic Perturbations for Private Decentralized Learning
- Title(参考訳): 個人分散学習のためのグラフ正則摂動
- Authors: Stefan Vlaski, Ali H. Sayed
- Abstract要約: ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
- 参考スコア(独自算出の注目度): 64.26238893241322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized algorithms for stochastic optimization and learning rely on the
diffusion of information as a result of repeated local exchanges of
intermediate estimates. Such structures are particularly appealing in
situations where agents may be hesitant to share raw data due to privacy
concerns. Nevertheless, in the absence of additional privacy-preserving
mechanisms, the exchange of local estimates, which are generated based on
private data can allow for the inference of the data itself. The most common
mechanism for guaranteeing privacy is the addition of perturbations to local
estimates before broadcasting. These perturbations are generally chosen
independently at every agent, resulting in a significant performance loss. We
propose an alternative scheme, which constructs perturbations according to a
particular nullspace condition, allowing them to be invisible (to first order
in the step-size) to the network centroid, while preserving privacy guarantees.
The analysis allows for general nonconvex loss functions, and is hence
applicable to a large number of machine learning and signal processing
problems, including deep learning.
- Abstract(参考訳): 確率的最適化と学習のための分散アルゴリズムは、中間推定の繰り返し局所的な交換の結果、情報の拡散に依存する。
このような構造は、プライバシの懸念からエージェントが生データを共有することをためらう可能性がある状況において特に魅力的である。
それでも、追加のプライバシー保護機構がないため、プライベートデータに基づいて生成されるローカルな推定値の交換は、データ自体の推測を可能にする。
プライバシーを保証する最も一般的なメカニズムは、放送前にローカルな推定値に摂動を追加することである。
これらの摂動は通常、各エージェントで独立に選択されるため、パフォーマンスが著しく低下する。
本稿では,特定のヌルスペース条件に従って摂動を構成し,プライバシー保証を保ちながら,ネットワークセントロイドを(ステップサイズで)目に見えないようにするための代替スキームを提案する。
この分析により、一般の非凸損失関数が可能となり、深層学習を含む多くの機械学習および信号処理問題に適用できる。
関連論文リスト
- Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - Differentially Private Distributed Estimation and Learning [2.4401219403555814]
ネットワーク環境における分散推定と学習の問題について検討する。
エージェントは、プライベートに観察されたサンプルからランダム変数の未知の統計特性を推定するために情報を交換する。
エージェントは、自分のプライベートな観察に関する情報を交換することで、未知の量を見積もることができるが、プライバシー上のリスクにも直面する。
論文 参考訳(メタデータ) (2023-06-28T01:41:30Z) - Differentially Private Distributed Convex Optimization [0.0]
分散最適化では、複数のエージェントが協力し、局所的な目的の和として表される大域的目的関数を最小化する。
ローカルに保存されたデータは、他のエージェントと共有されないため、機密性の高いデータを持つアプリケーションにおけるDOの実用的使用を制限する可能性がある。
本稿では,制約付き凸最適化モデルに対するプライバシー保護型DOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-28T12:07:27Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。