論文の概要: Scrutinizing the Vulnerability of Decentralized Learning to Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2412.12837v1
- Date: Tue, 17 Dec 2024 12:02:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:57:05.112901
- Title: Scrutinizing the Vulnerability of Decentralized Learning to Membership Inference Attacks
- Title(参考訳): メンバシップ推論攻撃に対する分散学習の脆弱性の検討
- Authors: Ousmane Touat, Jezekael Brunon, Yacine Belal, Julien Nicolas, Mohamed Maouche, César Sabater, Sonia Ben Mokhtar,
- Abstract要約: 分散学習システムにおけるメンバーシップ推論攻撃(MIA)の脆弱性について検討する。
鍵となる発見は、MIAの脆弱性は各ノードが実行した局所モデル混合戦略と大きく相関していることである。
本稿は,MIAに脆弱性を設計することで脆弱性を減らす分散型学習システムを考案した際の教訓をまとめたものである。
- 参考スコア(独自算出の注目度): 1.5993362488149794
- License:
- Abstract: The primary promise of decentralized learning is to allow users to engage in the training of machine learning models in a collaborative manner while keeping their data on their premises and without relying on any central entity. However, this paradigm necessitates the exchange of model parameters or gradients between peers. Such exchanges can be exploited to infer sensitive information about training data, which is achieved through privacy attacks (e.g Membership Inference Attacks -- MIA). In order to devise effective defense mechanisms, it is important to understand the factors that increase/reduce the vulnerability of a given decentralized learning architecture to MIA. In this study, we extensively explore the vulnerability to MIA of various decentralized learning architectures by varying the graph structure (e.g number of neighbors), the graph dynamics, and the aggregation strategy, across diverse datasets and data distributions. Our key finding, which to the best of our knowledge we are the first to report, is that the vulnerability to MIA is heavily correlated to (i) the local model mixing strategy performed by each node upon reception of models from neighboring nodes and (ii) the global mixing properties of the communication graph. We illustrate these results experimentally using four datasets and by theoretically analyzing the mixing properties of various decentralized architectures. Our paper draws a set of lessons learned for devising decentralized learning systems that reduce by design the vulnerability to MIA.
- Abstract(参考訳): 分散学習の第一の約束は、ユーザーが中央のエンティティに頼ることなく、データをオンプレミスに保持しながら、共同で機械学習モデルのトレーニングに参加できるようにすることである。
しかし、このパラダイムは、ピア間のモデルパラメータや勾配の交換を必要とする。
このような交換は、プライバシー攻撃(例えば、メンバーシップ推論攻撃 -- MIA)を通じて達成される訓練データに関する機密情報を推測するために利用することができる。
効果的な防御機構を考案するためには,特定の分散学習アーキテクチャの脆弱性をMIAに増加/減少させる要因を理解することが重要である。
本研究では,様々な分散学習アーキテクチャにおけるMIAの脆弱性について,グラフ構造やグラフダイナミクス,集約戦略を多種多様なデータセットやデータ分布に分散して検討する。
私たちの知る限りでは、MIAの脆弱性は、私たちの知る限りでは、私たちが最初に報告しているものですが、MIAの脆弱性は大きな相関関係にあります。
一 近隣ノードからモデルを受け取り、各ノードが行う局所モデル混合戦略
(ii) 通信グラフのグローバルな混合特性。
これらの結果は4つのデータセットを用いて実験的に説明し、理論的には様々な分散アーキテクチャの混合特性を解析する。
本稿は,MIAに脆弱性を設計することで脆弱性を減らす分散型学習システムを考案した際の教訓をまとめたものである。
関連論文リスト
- When Swarm Learning meets energy series data: A decentralized collaborative learning design based on blockchain [10.099134773737939]
機械学習モデルは、将来のエネルギー生産または消費を予測する機能を提供する。
しかし、特定のエネルギーセクター内の法と政策の制約は、様々な情報源のデータを利用する際に技術的ハードルをもたらす。
本稿では,集中型サーバをブロックチェーンベースの分散ネットワークに置き換えるSwarm Learningスキームを提案する。
論文 参考訳(メタデータ) (2024-06-07T08:42:26Z) - Impact of network topology on the performance of Decentralized Federated
Learning [4.618221836001186]
分散機械学習は、インフラストラクチャの課題とプライバシの懸念に対処し、勢いを増している。
本研究では,3つのネットワークトポロジと6つのデータ分散手法を用いて,ネットワーク構造と学習性能の相互作用について検討する。
モデル集約時の希釈効果に起因する周辺ノードから中心ノードへの知識伝達の課題を強調した。
論文 参考訳(メタデータ) (2024-02-28T11:13:53Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Global Update Tracking: A Decentralized Learning Algorithm for
Heterogeneous Data [14.386062807300666]
本稿では,デバイス間のデータ分散の変化の影響を受けにくい分散学習アルゴリズムの設計に焦点をあてる。
我々は,分散学習における異種データの影響を,通信オーバーヘッドを伴わずに緩和することを目的とした,新たなトラッキングベース手法であるGUTを提案する。
提案手法は,既存手法と比較して1~6%の精度向上により,異種データの分散学習における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-05-08T15:48:53Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - FedDKD: Federated Learning with Decentralized Knowledge Distillation [3.9084449541022055]
分散知識蒸留法(FedDKD)を応用した新しいフェデレートラーニングフレームワークを提案する。
我々は、FedDKDが、いくつかのDKDステップにおいて、より効率的なコミュニケーションと訓練により最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-02T07:54:07Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Information Stealing in Federated Learning Systems Based on Generative
Adversarial Networks [0.5156484100374059]
我々は,3つの異なるデータセットを用いて,連邦学習環境(FL)に敵対的攻撃を仕掛けた。
この攻撃は、GAN(Generative Adversarial Network)を利用して学習プロセスに影響を及ぼした。
対象者の実際のデータを,すべての適用データセットを用いて共有グローバルモデルパラメータから再構成した。
論文 参考訳(メタデータ) (2021-08-02T08:12:43Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。