論文の概要: Attacks to Federated Learning: Responsive Web User Interface to Recover
Training Data from User Gradients
- arxiv url: http://arxiv.org/abs/2006.04695v2
- Date: Fri, 17 Jul 2020 12:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:45:02.005033
- Title: Attacks to Federated Learning: Responsive Web User Interface to Recover
Training Data from User Gradients
- Title(参考訳): 連合学習への攻撃: ユーザの勾配からトレーニングデータを復元するレスポンシブwebユーザインタフェース
- Authors: Hans Albert Lianto, Yang Zhao, Jun Zhao
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、個々のユーザーデータを保護するための新たなプライバシ標準である。
本稿では,ローカルな差分プライバシーのパワーを示す対話型Webデモを紹介する。
- 参考スコア(独自算出の注目度): 19.009770828933426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local differential privacy (LDP) is an emerging privacy standard to protect
individual user data. One scenario where LDP can be applied is federated
learning, where each user sends in his/her user gradients to an aggregator who
uses these gradients to perform stochastic gradient descent. In a case where
the aggregator is untrusted and LDP is not applied to each user gradient, the
aggregator can recover sensitive user data from these gradients. In this paper,
we present a new interactive web demo showcasing the power of local
differential privacy by visualizing federated learning with local differential
privacy. Moreover, the live demo shows how LDP can prevent untrusted
aggregators from recovering sensitive training data. A measure called the
exp-hamming recovery is also created to show the extent of how much data the
aggregator can recover.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、個々のユーザーデータを保護するための新たなプライバシ標準である。
LDPが適用可能なシナリオの1つはフェデレーション学習であり、各ユーザが自身のユーザ勾配をアグリゲータに送信し、これらの勾配を使用して確率勾配降下を行う。
アグリゲータが信頼されず、各ユーザ勾配にLDPを適用しない場合、アグリゲータはこれらの勾配からセンシティブなユーザデータを復元することができる。
本稿では,ローカルディファレンシャルプライバシを用いたフェデレーション学習を可視化することで,ローカルディファレンシャルプライバシのパワーを示す新しいインタラクティブwebデモを提案する。
さらに、ライブデモでは、信頼できないアグリゲータがセンシティブなトレーニングデータを回復することを防ぐ方法が示されている。
exp-hamming recoveryと呼ばれる指標も作成され、アグリゲータがどれだけのデータを復元できるかを示す。
関連論文リスト
- Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Learning to Generate Image Embeddings with User-level Differential
Privacy [31.797461992234457]
DP-FedEmbは、ユーザ毎の感度制御とノイズ付加を備えたフェデレーション学習アルゴリズムの一種である。
数百万のユーザがトレーニングに参加可能な場合,ユーティリティの低下を5%以内でコントロールしながら,強力なユーザレベルのDP保証を$epsilon4$で実現できることを示す。
論文 参考訳(メタデータ) (2022-11-20T01:59:37Z) - Privacy-Preserving Online Content Moderation: A Federated Learning Use
Case [3.1925030748447747]
フェデレートラーニング(Federated Learning, FL)は、ユーザのデバイス上でローカルにトレーニングを行うMLパラダイムである。
差分プライバシー(DP)を組み込んだオンラインコンテンツモデレーションのためのプライバシー保護FLフレームワークを提案する。
提案するFLフレームワークは,DP版と非DP版の両方において,集中型アプローチに近いものとなることを示す。
論文 参考訳(メタデータ) (2022-09-23T20:12:18Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - FedCL: Federated Contrastive Learning for Privacy-Preserving
Recommendation [98.5705258907774]
FedCLは、プライバシーを十分に保護した効果的なモデルトレーニングのために、高品質な負のサンプルを利用することができる。
まず、各クライアントのローカルモデルを介してローカルユーザデータからユーザ埋め込みを推測し、その後、ローカルディファレンシャルプライバシ(LDP)で摂動する。
個々のユーザ埋め込みにはLDPによる重騒音が伴うため,ノイズの影響を軽減するため,サーバ上にユーザ埋め込みをクラスタ化することを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:37:10Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Gradient Inversion with Generative Image Prior [37.03737843861339]
Federated Learning(FL)は、ローカルデータがクライアントデバイスから離れてプライバシを保存する、分散学習フレームワークである。
データ配信で事前訓練された生成モデルを利用することで、データのプライバシが容易に破られることを示す。
本研究では,FLにおける反復的相互作用から,前者の生成モデルが学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T09:04:32Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - SAPAG: A Self-Adaptive Privacy Attack From Gradients [19.533851763230693]
分散学習は、ユーザの分散データに対するモデルトレーニングを可能にする。
トレーニングデータの集中化は、プライバシに敏感なデータのプライバシー問題に対処する。
近年の研究では、分散機械学習システムにおいて、サードパーティが真のトレーニングデータを再構築できることが示されている。
論文 参考訳(メタデータ) (2020-09-14T07:04:02Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。