論文の概要: A Quantitative Metric for Privacy Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2102.13472v1
- Date: Wed, 24 Feb 2021 02:48:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 16:04:08.174911
- Title: A Quantitative Metric for Privacy Leakage in Federated Learning
- Title(参考訳): 連合学習におけるプライバシー漏洩の定量的指標
- Authors: Yong Liu, Xinghua Zhu, Jianzong Wang, Jing Xiao
- Abstract要約: クライアントが勾配における情報漏洩の潜在的なリスクを評価するために、相互情報に基づく定量的指標を提案します。
情報漏洩のリスクは、タスクモデルの状態だけでなく、固有のデータ分布に関連していることが証明されています。
- 参考スコア(独自算出の注目度): 22.968763654455298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the federated learning system, parameter gradients are shared among
participants and the central modulator, while the original data never leave
their protected source domain. However, the gradient itself might carry enough
information for precise inference of the original data. By reporting their
parameter gradients to the central server, client datasets are exposed to
inference attacks from adversaries. In this paper, we propose a quantitative
metric based on mutual information for clients to evaluate the potential risk
of information leakage in their gradients. Mutual information has received
increasing attention in the machine learning and data mining community over the
past few years. However, existing mutual information estimation methods cannot
handle high-dimensional variables. In this paper, we propose a novel method to
approximate the mutual information between the high-dimensional gradients and
batched input data. Experimental results show that the proposed metric reliably
reflect the extent of information leakage in federated learning. In addition,
using the proposed metric, we investigate the influential factors of risk
level. It is proven that, the risk of information leakage is related to the
status of the task model, as well as the inherent data distribution.
- Abstract(参考訳): フェデレーション学習システムでは、パラメータ勾配は参加者と中央変調器の間で共有され、元のデータは保護されたソースドメインを離れることはない。
しかし、勾配自体は元のデータの正確な推測に十分な情報を持っているかもしれない。
パラメータ勾配を中央サーバに報告することで、クライアントデータセットは敵からの推論攻撃にさらされる。
本稿では,クライアントの相互情報に基づく定量的メトリクスを提案し,その勾配における情報漏洩の可能性を評価する。
相互情報は、ここ数年、機械学習とデータマイニングのコミュニティで注目を集めています。
しかし,既存の相互情報推定手法では高次元変数を扱えない。
本稿では,高次元勾配とバッチ入力データとの相互情報を近似する新しい手法を提案する。
実験の結果,提案手法は,連合学習における情報漏洩の程度を確実に反映することがわかった。
また,提案した指標を用いて,リスクレベルの影響要因を検討する。
情報漏洩のリスクは、タスクモデルの状態だけでなく、固有のデータ分布に関連していることが証明されています。
関連論文リスト
- Defending Against Data Reconstruction Attacks in Federated Learning: An
Information Theory Approach [21.03960608358235]
フェデレートラーニング(FL)は、直接データ共有の代わりにパラメータを交換することで、異なるクライアント間でブラックボックスと高次元のモデルを訓練する。
FLは依然として、メンバーシップ推論攻撃 (MIA) やデータ再構成攻撃 (DRA) に悩まされている。
論文 参考訳(メタデータ) (2024-03-02T17:12:32Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Quantifying Information Leakage from Gradients [8.175697239083474]
トレーニングデータの代わりにディープニューラルネットワークの勾配を共有することで、コラボレーティブラーニングにおけるデータのプライバシが向上する可能性がある。
しかし実際には、勾配はプライベート潜在属性とオリジナルデータの両方を明らかにすることができる。
トレーニングデータ上で計算された勾配から、元の情報漏洩と潜時情報漏洩の両方を定量化するために、数学的メトリクスが必要である。
論文 参考訳(メタデータ) (2021-05-28T15:47:44Z) - Detecting discriminatory risk through data annotation based on Bayesian
inferences [5.017973966200985]
本稿では,与えられたデータセットの判別結果のリスクについて警告することを目的としたデータアノテーション手法を提案する。
機械学習コミュニティが一般的にアクセスする3つのデータセット上で,我々のシステムを実証的にテストする。
論文 参考訳(メタデータ) (2021-01-27T12:43:42Z) - Layer-wise Characterization of Latent Information Leakage in Federated
Learning [9.397152006395174]
フェデレートされた学習を通じてディープニューラルネットワークをトレーニングすることで、クライアントは元のデータではなく、データに基づいてトレーニングされたモデルのみを共有することができる。
従来の研究は、クライアントのプライベート情報が、メインの学習タスクとは無関係に、モデルの勾配から発見できることを実証している。
共有された更新モデルや勾配を通じて、プライベート情報の漏洩を定量化するための公式なアプローチはまだ存在しない。
論文 参考訳(メタデータ) (2020-10-17T10:49:14Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。