論文の概要: Breaching FedMD: Image Recovery via Paired-Logits Inversion Attack
- arxiv url: http://arxiv.org/abs/2304.11436v2
- Date: Sat, 1 Jul 2023 05:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 13:43:53.974704
- Title: Breaching FedMD: Image Recovery via Paired-Logits Inversion Attack
- Title(参考訳): Breaching FedMD: Paired-Logitsインバージョンアタックによるイメージリカバリ
- Authors: Hideaki Takahashi, Jingjing Liu, and Yang Liu
- Abstract要約: 悪意のあるサーバは、FedMDとその変種に対してPLI(Paired-Logits Inversion)攻撃を注入することができる。
複数の顔認識データセットの実験では、FedMDのようなスキームの下では、公開データセットのペア化されたサーバクライアントロジットを使用することで、悪意のあるサーバは、テストされたすべてのベンチマーク上で、高い成功率でプライベートイメージを再構築することができる。
- 参考スコア(独自算出の注目度): 11.191808280173612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning with Model Distillation (FedMD) is a nascent collaborative
learning paradigm, where only output logits of public datasets are transmitted
as distilled knowledge, instead of passing on private model parameters that are
susceptible to gradient inversion attacks, a known privacy risk in federated
learning. In this paper, we found that even though sharing output logits of
public datasets is safer than directly sharing gradients, there still exists a
substantial risk of data exposure caused by carefully designed malicious
attacks. Our study shows that a malicious server can inject a PLI
(Paired-Logits Inversion) attack against FedMD and its variants by training an
inversion neural network that exploits the confidence gap between the server
and client models. Experiments on multiple facial recognition datasets validate
that under FedMD-like schemes, by using paired server-client logits of public
datasets only, the malicious server is able to reconstruct private images on
all tested benchmarks with a high success rate.
- Abstract(参考訳): フェデレート・ラーニング・アンド・モデル蒸留(Federated Learning with Model Distillation, FedMD)は、一般のデータセットの出力ロジットのみを蒸留知識として送信する、新たな協調学習パラダイムである。
本稿では,公開データセットの出力ログの共有が,勾配を直接共有するよりも安全であるにもかかわらず,慎重に設計された悪意のある攻撃によるデータ露出のかなりのリスクが存在することを発見した。
本研究では、悪意のあるサーバが、サーバとクライアントモデル間の信頼ギャップを生かした逆ニューラルネットワークをトレーニングすることにより、FedMDとその変異体に対するPLI攻撃を注入できることを示す。
複数の顔認識データセットに関する実験では、公開データセットのみのサーバクライアントロジットをペアにすることで、fedmdのようなスキームの下で、悪意のあるサーバはテスト済みのすべてのベンチマークで、高い成功率でプライベートイメージを再構築することができる。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - No Vandalism: Privacy-Preserving and Byzantine-Robust Federated Learning [18.1129191782913]
フェデレートされた学習により、複数のクライアントがプライベートデータを共有せずに1つの機械学習モデルを共同でトレーニングし、プライバシ保護を提供する。
従来の連合学習は、毒性攻撃に弱いため、モデルの性能を低下させるだけでなく、悪意のあるバックドアを埋め込むこともできる。
本稿では,悪意ある参加者からの攻撃に対して,有害行為(NoV)のない環境を提供するために,プライバシ保護とビザンチン損なうフェデレーション・ラーニング・スキームを構築することを目的とする。
論文 参考訳(メタデータ) (2024-06-03T07:59:10Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Vicious Classifiers: Assessing Inference-time Data Reconstruction Risk in Edge Computing [2.2636351333487315]
エッジコンピューティングにおけるプライバシ保護推論は、マシンラーニングサービスのユーザがプライベート入力でモデルをローカルに実行できるようにする。
本研究では,モデル出力のみを観測することで,悪質なサーバが入力データを再構成する方法について検討する。
予測時間復元リスクを評価するための新しい尺度を提案する。
論文 参考訳(メタデータ) (2022-12-08T12:05:50Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Federated Face Presentation Attack Detection [93.25058425356694]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
本稿では,FedPAD(Federated Face Presentation Detection)フレームワークを提案する。
FedPADは、データプライバシを保持しながら、異なるデータオーナで利用可能な豊富なfPAD情報を同時に活用する。
論文 参考訳(メタデータ) (2020-05-29T15:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。