論文の概要: Attacks to Federated Learning: Responsive Web User Interface to Recover
Training Data from User Gradients
- arxiv url: http://arxiv.org/abs/2006.04695v2
- Date: Fri, 17 Jul 2020 12:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:45:02.005033
- Title: Attacks to Federated Learning: Responsive Web User Interface to Recover
Training Data from User Gradients
- Title(参考訳): 連合学習への攻撃: ユーザの勾配からトレーニングデータを復元するレスポンシブwebユーザインタフェース
- Authors: Hans Albert Lianto, Yang Zhao, Jun Zhao
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、個々のユーザーデータを保護するための新たなプライバシ標準である。
本稿では,ローカルな差分プライバシーのパワーを示す対話型Webデモを紹介する。
- 参考スコア(独自算出の注目度): 19.009770828933426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local differential privacy (LDP) is an emerging privacy standard to protect
individual user data. One scenario where LDP can be applied is federated
learning, where each user sends in his/her user gradients to an aggregator who
uses these gradients to perform stochastic gradient descent. In a case where
the aggregator is untrusted and LDP is not applied to each user gradient, the
aggregator can recover sensitive user data from these gradients. In this paper,
we present a new interactive web demo showcasing the power of local
differential privacy by visualizing federated learning with local differential
privacy. Moreover, the live demo shows how LDP can prevent untrusted
aggregators from recovering sensitive training data. A measure called the
exp-hamming recovery is also created to show the extent of how much data the
aggregator can recover.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、個々のユーザーデータを保護するための新たなプライバシ標準である。
LDPが適用可能なシナリオの1つはフェデレーション学習であり、各ユーザが自身のユーザ勾配をアグリゲータに送信し、これらの勾配を使用して確率勾配降下を行う。
アグリゲータが信頼されず、各ユーザ勾配にLDPを適用しない場合、アグリゲータはこれらの勾配からセンシティブなユーザデータを復元することができる。
本稿では,ローカルディファレンシャルプライバシを用いたフェデレーション学習を可視化することで,ローカルディファレンシャルプライバシのパワーを示す新しいインタラクティブwebデモを提案する。
さらに、ライブデモでは、信頼できないアグリゲータがセンシティブなトレーニングデータを回復することを防ぐ方法が示されている。
exp-hamming recoveryと呼ばれる指標も作成され、アグリゲータがどれだけのデータを復元できるかを示す。
関連論文リスト
- Federated Learning under Attack: Improving Gradient Inversion for Batch of Images [1.5749416770494706]
フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
フィードバックブレンディング(DLG-FB)を用いたグラディエンスからのディープリークは、逆勾配攻撃を改善することができる。
論文 参考訳(メタデータ) (2024-09-26T12:02:36Z) - GI-SMN: Gradient Inversion Attack against Federated Learning without Prior Knowledge [4.839514405631815]
フェデレートラーニング(FL)は、プライバシ保護機械学習アプローチとして登場した。
勾配反転攻撃はFLの勾配を利用して元のユーザデータを再現する。
スタイルマイグレーションネットワーク(GI-SMN)に基づく新しいグラディエント・インバージョン・アタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:29:24Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Adaptive Coded Federated Learning: Privacy Preservation and Straggler Mitigation [33.56146654796337]
トラグラーの負の影響を軽減するために、符号化された連合学習フレームワークが提案されている。
本稿では,この欠点を克服するために,適応符号化フェデレーション学習(ACFL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T01:51:48Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Gradient Inversion with Generative Image Prior [37.03737843861339]
Federated Learning(FL)は、ローカルデータがクライアントデバイスから離れてプライバシを保存する、分散学習フレームワークである。
データ配信で事前訓練された生成モデルを利用することで、データのプライバシが容易に破られることを示す。
本研究では,FLにおける反復的相互作用から,前者の生成モデルが学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T09:04:32Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - SAPAG: A Self-Adaptive Privacy Attack From Gradients [19.533851763230693]
分散学習は、ユーザの分散データに対するモデルトレーニングを可能にする。
トレーニングデータの集中化は、プライバシに敏感なデータのプライバシー問題に対処する。
近年の研究では、分散機械学習システムにおいて、サードパーティが真のトレーニングデータを再構築できることが示されている。
論文 参考訳(メタデータ) (2020-09-14T07:04:02Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。