論文の概要: Gradient Inversion with Generative Image Prior
- arxiv url: http://arxiv.org/abs/2110.14962v1
- Date: Thu, 28 Oct 2021 09:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:39:45.885972
- Title: Gradient Inversion with Generative Image Prior
- Title(参考訳): 生成画像優先による勾配インバージョン
- Authors: Jinwoo Jeon and Jaechang Kim and Kangwook Lee and Sewoong Oh and
Jungseul Ok
- Abstract要約: Federated Learning(FL)は、ローカルデータがクライアントデバイスから離れてプライバシを保存する、分散学習フレームワークである。
データ配信で事前訓練された生成モデルを利用することで、データのプライバシが容易に破られることを示す。
本研究では,FLにおける反復的相互作用から,前者の生成モデルが学習可能であることを示す。
- 参考スコア(独自算出の注目度): 37.03737843861339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a distributed learning framework, in which the
local data never leaves clients devices to preserve privacy, and the server
trains models on the data via accessing only the gradients of those local data.
Without further privacy mechanisms such as differential privacy, this leaves
the system vulnerable against an attacker who inverts those gradients to reveal
clients sensitive data. However, a gradient is often insufficient to
reconstruct the user data without any prior knowledge. By exploiting a
generative model pretrained on the data distribution, we demonstrate that data
privacy can be easily breached. Further, when such prior knowledge is
unavailable, we investigate the possibility of learning the prior from a
sequence of gradients seen in the process of FL training. We experimentally
show that the prior in a form of generative model is learnable from iterative
interactions in FL. Our findings strongly suggest that additional mechanisms
are necessary to prevent privacy leakage in FL.
- Abstract(参考訳): Federated Learning(FL)は分散学習フレームワークで、ローカルデータはクライアントデバイスから離れてプライバシを保存することができず、サーバはローカルデータの勾配のみにアクセスすることによって、データ上のモデルをトレーニングする。
ディファレンシャルプライバシのようなさらなるプライバシメカニズムがなければ、クライアントの機密データを明らかにするためにこれらの勾配を反転させる攻撃者に対して、システムは脆弱になる。
しかし、事前の知識なしにユーザーデータを再構築するには勾配が不十分であることが多い。
データ分散に事前学習した生成モデルを利用することで,データのプライバシの侵害が容易であることを実証する。
さらに,このような事前知識が利用できない場合,fl訓練の過程で見られる勾配列から事前知識を学習する可能性について検討する。
本研究では,FLにおける反復的相互作用から,前者の生成モデルが学習可能であることを示す。
本研究は,FLのプライバシー漏洩を防止するために追加のメカニズムが必要であることを強く示唆している。
関連論文リスト
- Federated Learning with Reduced Information Leakage and Computation [20.005520306964485]
フェデレートラーニング(Federated Learning, FL)は、分散学習パラダイムであり、複数の分散クライアントが、ローカルデータを共有せずに共通のモデルを共同で学習することを可能にする。
本稿では,偶数反復毎に一階近似を適用した新しいフェデレーション学習フレームワークであるUpcycled-FLを紹介する。
このフレームワークの下では、FL更新の半分は情報漏洩を発生させることなく、はるかに少ない計算を必要とする。
論文 参考訳(メタデータ) (2023-10-10T06:22:06Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Auditing Privacy Defenses in Federated Learning via Generative Gradient
Leakage [9.83989883339971]
Federated Learning (FL)フレームワークは、分散学習システムにプライバシーの利点をもたらす。
近年の研究では、共有情報を通じて個人情報を漏洩させることが報告されている。
我々は,GGL(Generative Gradient Leakage)と呼ばれる新しいタイプのリーク手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:59:59Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。