論文の概要: Federated Learning Nodes Can Reconstruct Peers' Image Data
- arxiv url: http://arxiv.org/abs/2410.04661v1
- Date: Mon, 7 Oct 2024 00:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 02:47:36.357373
- Title: Federated Learning Nodes Can Reconstruct Peers' Image Data
- Title(参考訳): フェデレートされた学習ノードは、ピアのイメージデータを再構築できる
- Authors: Ethan Wilson, Kai Yue, Chau-Wai Wong, Huaiyu Dai,
- Abstract要約: Federated Learning(FL)は、複数のノードがローカルデータ上でモデルをトレーニングできるようにする、プライバシ保護機械学習フレームワークである。
以前の研究によると、FLの勾配共有ステップは、正直だが正確な中央サーバーからのデータ再構成攻撃に弱い可能性がある。
正直なノード/クライアントは、集中型システムでピアのイメージデータを再構築する攻撃を起動し、深刻なプライバシーリスクを生じさせることを示す。
- 参考スコア(独自算出の注目度): 27.92271597111756
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) is a privacy-preserving machine learning framework that enables multiple nodes to train models on their local data and periodically average weight updates to benefit from other nodes' training. Each node's goal is to collaborate with other nodes to improve the model's performance while keeping its training data private. However, this framework does not guarantee data privacy. Prior work has shown that the gradient-sharing steps in FL can be vulnerable to data reconstruction attacks from an honest-but-curious central server. In this work, we show that an honest-but-curious node/client can also launch attacks to reconstruct peers' image data in a centralized system, presenting a severe privacy risk. We demonstrate that a single client can silently reconstruct other clients' private images using diluted information available within consecutive updates. We leverage state-of-the-art diffusion models to enhance the perceptual quality and recognizability of the reconstructed images, further demonstrating the risk of information leakage at a semantic level. This highlights the need for more robust privacy-preserving mechanisms that protect against silent client-side attacks during federated training.
- Abstract(参考訳): Federated Learning(FL)は、複数のノードがローカルデータ上でモデルをトレーニングし、他のノードのトレーニングの恩恵を受けるために定期的に平均的な重量更新を可能にする、プライバシ保護機械学習フレームワークである。
各ノードの目標は、トレーニングデータをプライベートに保ちながら、他のノードと協力してモデルのパフォーマンスを改善することだ。
しかし、このフレームワークはデータのプライバシを保証しません。
以前の研究によると、FLの勾配共有ステップは、正直だが正確な中央サーバからのデータ再構成攻撃に弱い可能性がある。
本研究では,ノード/クライアントが,集中型システムにおいてピアのイメージデータを再構築する攻撃を発生させることで,プライバシの深刻なリスクが生じることを示す。
連続的な更新で利用可能な希薄な情報を用いて、単一のクライアントが静かに他のクライアントのプライベートイメージを再構築できることを実証する。
我々は最先端拡散モデルを利用して、再構成された画像の知覚的品質と認識性を高め、さらに意味レベルでの情報漏洩のリスクを示す。
これは、フェデレートトレーニング中にサイレントクライアント側の攻撃から保護する、より堅牢なプライバシ保護メカニズムの必要性を強調している。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - No Vandalism: Privacy-Preserving and Byzantine-Robust Federated Learning [18.1129191782913]
フェデレートされた学習により、複数のクライアントがプライベートデータを共有せずに1つの機械学習モデルを共同でトレーニングし、プライバシ保護を提供する。
従来の連合学習は、毒性攻撃に弱いため、モデルの性能を低下させるだけでなく、悪意のあるバックドアを埋め込むこともできる。
本稿では,悪意ある参加者からの攻撃に対して,有害行為(NoV)のない環境を提供するために,プライバシ保護とビザンチン損なうフェデレーション・ラーニング・スキームを構築することを目的とする。
論文 参考訳(メタデータ) (2024-06-03T07:59:10Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning [2.0507547735926424]
分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T08:32:29Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Compression Boosts Differentially Private Federated Learning [0.7742297876120562]
フェデレートされた学習により、分散エンティティは、自身のデータを共有することなく、共通のモデルを協調的にトレーニングできる。
悪意のあるエンティティが、捕獲された勾配から参加者のトレーニングデータに関するプライベート情報を学ぶことができるような、さまざまな推論や再構築攻撃に対して脆弱なままである。
本稿では,2つのデータセットを用いて,従来の非私的フェデレート学習方式と比較して,通信コストを最大95%削減できることを示す。
論文 参考訳(メタデータ) (2020-11-10T13:11:03Z) - Inverting Gradients -- How easy is it to break privacy in federated
learning? [13.632998588216523]
連合学習は、サーバー上のニューラルネットワークを協調的に訓練するように設計されている。
各ユーザはネットワークの現在の重みを受信し、ローカルデータに基づいてパラメータ更新(勾配)を送信します。
以前の攻撃は、選択された設定でのみ成功することによって、セキュリティの誤った感覚をもたらした。
パラメータ勾配の知識から高分解能で画像を忠実に再構成することは実際に可能であることを示す。
論文 参考訳(メタデータ) (2020-03-31T09:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。