論文の概要: PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning
- arxiv url: http://arxiv.org/abs/2312.10380v1
- Date: Sat, 16 Dec 2023 08:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 16:52:28.852379
- Title: PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning
- Title(参考訳): PPIDSG: フェデレーション学習におけるGANを用いたプライバシ保護画像配信共有方式
- Authors: Yuting Ma, Yuanzhi Yao, Xiaohua Xu
- Abstract要約: 分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
- 参考スコア(独自算出の注目度): 2.0507547735926424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has attracted growing attention since it allows for
privacy-preserving collaborative training on decentralized clients without
explicitly uploading sensitive data to the central server. However, recent
works have revealed that it still has the risk of exposing private data to
adversaries. In this paper, we conduct reconstruction attacks and enhance
inference attacks on various datasets to better understand that sharing trained
classification model parameters to a central server is the main problem of
privacy leakage in FL. To tackle this problem, a privacy-preserving image
distribution sharing scheme with GAN (PPIDSG) is proposed, which consists of a
block scrambling-based encryption algorithm, an image distribution sharing
method, and local classification training. Specifically, our method can capture
the distribution of a target image domain which is transformed by the block
encryption algorithm, and upload generator parameters to avoid classifier
sharing with negligible influence on model performance. Furthermore, we apply a
feature extractor to motivate model utility and train it separately from the
classifier. The extensive experimental results and security analyses
demonstrate the superiority of our proposed scheme compared to other
state-of-the-art defense methods. The code is available at
https://github.com/ytingma/PPIDSG.
- Abstract(参考訳): フェデレートラーニング(FL)は、中央サーバに機密データを明示的にアップロードすることなく、分散クライアント上でのプライバシ保護による協調トレーニングを可能にするため、注目を集めている。
しかし、最近の研究により、まだ敵にプライベートデータを公開するリスクがあることが判明した。
本稿では,様々なデータセットに対するレコンストラクション攻撃の実施と推論攻撃の強化を行い,訓練された分類モデルのパラメータを中央サーバに共有することが,flにおけるプライバシ漏洩の主な問題であることをよく理解する。
この問題に対処するために,ブロックスクランブルに基づく暗号化アルゴリズム,画像分布共有法,局所分類訓練からなる,ganを用いたプライバシー保全型画像分散共有方式を提案する。
具体的には、ブロック暗号化アルゴリズムによって変換された対象画像領域の分布をキャプチャし、モデル性能に無視できない影響で識別子共有を避けるためにジェネレータパラメータをアップロードする。
さらに、特徴抽出器を適用してモデルユーティリティを動機付け、分類器から別々に訓練する。
大規模実験結果とセキュリティ分析により,提案手法が他の最先端防衛法よりも優れていることを示す。
コードはhttps://github.com/ytingma/ppidsgで入手できる。
関連論文リスト
- Federated Learning Nodes Can Reconstruct Peers' Image Data [27.92271597111756]
Federated Learning(FL)は、複数のノードがローカルデータ上でモデルをトレーニングできるようにする、プライバシ保護機械学習フレームワークである。
以前の研究によると、FLの勾配共有ステップは、正直だが正確な中央サーバーからのデータ再構成攻撃に弱い可能性がある。
正直なノード/クライアントは、集中型システムでピアのイメージデータを再構築する攻撃を起動し、深刻なプライバシーリスクを生じさせることを示す。
論文 参考訳(メタデータ) (2024-10-07T00:18:35Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving Federated Learning with Byzantine Users [19.209830150036254]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Privacy-Preserving Federated Learning via System Immersion and Random
Matrix Encryption [4.258856853258348]
フェデレーション学習(FL)は、クライアントが中央集権的な(潜在的に敵対的な)サーバとデータを共有するのではなく、デバイス上でAIモデルをトレーニングする、コラボレーティブな分散学習のためのプライバシソリューションとして登場した。
本稿では,制御理論からの行列暗号とシステム浸漬ツールの相乗効果に基づいて,プライバシ保護フェデレーションラーニング(PPFL)フレームワークを提案する。
提案アルゴリズムは,クライアントのデータに関する情報を公開せずに,標準FLと同等の精度と収束率を無視できるコストで提供することを示す。
論文 参考訳(メタデータ) (2022-04-05T21:28:59Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。