論文の概要: Privacy Threats Analysis to Secure Federated Learning
- arxiv url: http://arxiv.org/abs/2106.13076v1
- Date: Thu, 24 Jun 2021 15:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 19:03:22.536885
- Title: Privacy Threats Analysis to Secure Federated Learning
- Title(参考訳): プライバシーの脅威分析による連合学習の安全性
- Authors: Yuchen Li, Yifan Bao, Liyao Xiang, Junhan Liu, Cen Chen, Li Wang,
Xinbing Wang
- Abstract要約: 産業レベルのフェデレーション学習フレームワークにおけるプライバシの脅威をセキュアな計算で分析する。
我々は,攻撃者が被害者のプライベート入力全体を逆転させることが可能であるという理論的分析を通して示す。
- 参考スコア(独自算出の注目度): 34.679990191199224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is emerging as a machine learning technique that trains a
model across multiple decentralized parties. It is renowned for preserving
privacy as the data never leaves the computational devices, and recent
approaches further enhance its privacy by hiding messages transferred in
encryption. However, we found that despite the efforts, federated learning
remains privacy-threatening, due to its interactive nature across different
parties. In this paper, we analyze the privacy threats in industrial-level
federated learning frameworks with secure computation, and reveal such threats
widely exist in typical machine learning models such as linear regression,
logistic regression and decision tree. For the linear and logistic regression,
we show through theoretical analysis that it is possible for the attacker to
invert the entire private input of the victim, given very few information. For
the decision tree model, we launch an attack to infer the range of victim's
private inputs. All attacks are evaluated on popular federated learning
frameworks and real-world datasets.
- Abstract(参考訳): フェデレーテッド・ラーニングは、複数の分散型パーティでモデルをトレーニングする機械学習技術として登場しつつある。
データが計算装置を離れることはないため、プライバシを保護することで有名であり、最近のアプローチでは暗号化で転送されたメッセージを隠蔽することでプライバシをさらに強化している。
しかし、これらの努力にもかかわらず、異なる当事者間でインタラクティブな性質のため、フェデレートされた学習はプライバシーを脅かしている。
本稿では,産業レベルのフェデレーション学習フレームワークにおけるプライバシの脅威をセキュアな計算で分析し,線形回帰,ロジスティック回帰,決定木といった一般的な機械学習モデルに広く存在する脅威を明らかにする。
線形回帰とロジスティック回帰は,攻撃者が被害者のプライベート入力全体を逆転させることが可能であることを理論的解析を通して示す。
決定木モデルでは,被害者のプライベート入力の範囲を推定するために攻撃を開始する。
すべての攻撃は、一般的なフェデレーション学習フレームワークと実世界のデータセットで評価される。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - White-box Inference Attacks against Centralized Machine Learning and
Federated Learning [0.0]
ニューラルネットワーク層,勾配,勾配ノルム,微調整モデルの違いが,事前知識によるメンバー推論攻撃性能に与える影響を評価する。
その結果,集中型機械学習モデルでは,すべての面において,より深刻なメンバー情報漏洩が見られた。
論文 参考訳(メタデータ) (2022-12-15T07:07:19Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - MORSE-STF: A Privacy Preserving Computation System [12.875477499515158]
MPCに基づくプライバシー保護機械学習フレームワークSecure-TFを提案する。
我々のフレームワークは、ロジスティック回帰、完全接続型ニューラルネットワーク、畳み込み型ニューラルネットワークなど、広く使われている機械学習モデルをサポートすることができる。
論文 参考訳(メタデータ) (2021-09-24T03:42:46Z) - GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning [3.050919759387984]
画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-02T18:39:37Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Federated Learning in Adversarial Settings [0.8701566919381224]
フェデレートされた学習スキームは、堅牢性、プライバシ、帯域幅効率、モデルの精度の異なるトレードオフを提供します。
この拡張は、厳格なプライバシー要件があっても、プライベートではないがロバストなスキームと同じくらい効率的に機能することを示す。
これは差別化プライバシとロバストネスの基本的なトレードオフの可能性を示している。
論文 参考訳(メタデータ) (2020-10-15T14:57:02Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。