論文の概要: On the Detectability of Active Gradient Inversion Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2511.10502v1
- Date: Fri, 14 Nov 2025 01:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.898154
- Title: On the Detectability of Active Gradient Inversion Attacks in Federated Learning
- Title(参考訳): フェデレート学習におけるアクティブ・グラディエント・インバージョン・アタックの検出可能性について
- Authors: Vincenzo Carletti, Pasquale Foggia, Carlo Mazzocca, Giuseppe Parrella, Mario Vento,
- Abstract要約: フェデレートラーニング(FL)は、クライアントのデータを現場に保持しながら、機械学習(ML)モデルを協調的にトレーニングすることができる。
しかし、以前の研究では、FLトレーニング中に交換された勾配が、グラディエント・インバージョン・アタック(GIA)に対して脆弱であることが示されている。
これらの攻撃は、クライアントのローカルデータの再構築を可能にし、FLのプライバシーの約束を破る。
近年、新たな活発なGIAが出現し、これまでのアプローチよりもずっとステルス性が高いと主張している。
- 参考スコア(独自算出の注目度): 5.828517827413101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the key advantages of Federated Learning (FL) is its ability to collaboratively train a Machine Learning (ML) model while keeping clients' data on-site. However, this can create a false sense of security. Despite not sharing private data increases the overall privacy, prior studies have shown that gradients exchanged during the FL training remain vulnerable to Gradient Inversion Attacks (GIAs). These attacks allow reconstructing the clients' local data, breaking the privacy promise of FL. GIAs can be launched by either a passive or an active server. In the latter case, a malicious server manipulates the global model to facilitate data reconstruction. While effective, earlier attacks falling under this category have been demonstrated to be detectable by clients, limiting their real-world applicability. Recently, novel active GIAs have emerged, claiming to be far stealthier than previous approaches. This work provides the first comprehensive analysis of these claims, investigating four state-of-the-art GIAs. We propose novel lightweight client-side detection techniques, based on statistically improbable weight structures and anomalous loss and gradient dynamics. Extensive evaluation across several configurations demonstrates that our methods enable clients to effectively detect active GIAs without any modifications to the FL training protocol.
- Abstract(参考訳): フェデレート・ラーニング(FL)の重要な利点の1つは、クライアントのデータをその場で保持しながら機械学習(ML)モデルを協調的にトレーニングする能力である。
しかし、これはセキュリティの誤った感覚を生み出す可能性がある。
プライベートデータを共有していないことで、全体的なプライバシーが向上するが、以前の研究では、FLトレーニング中に交換された勾配が、グラディエント・インバージョン・アタック(GIA)に対して脆弱であることが示されている。
これらの攻撃は、クライアントのローカルデータの再構築を可能にし、FLのプライバシーの約束を破る。
GIAは、パッシブサーバまたはアクティブサーバによって起動できる。
後者の場合、悪意のあるサーバがデータ再構成を容易にするためにグローバルモデルを操作する。
有効ではあるが、このカテゴリに該当する以前の攻撃は、クライアントによって検出可能であることが実証されており、実際の適用範囲が制限されている。
近年、新しい活発なGIAが出現し、以前のアプローチよりもずっとステルス性が高いと主張している。
この研究は、これらの主張を初めて包括的に分析し、4つの最先端のGIAを調査した。
統計的に不可能な重み構造と異常損失と勾配ダイナミクスに基づく,新しい軽量クライアント側検出手法を提案する。
FLトレーニングプロトコルの変更なしに,クライアントがアクティブなGIAを効果的に検出できることを示す。
関連論文リスト
- Hear No Evil: Detecting Gradient Leakage by Malicious Servers in Federated Learning [35.64232606410778]
フェデレーション学習の勾配更新は、クライアントのローカルデータに関する機密情報を意図せずに明らかにすることができる。
本稿では,悪質な勾配漏洩攻撃の包括的解析と,それらを可能にするモデル操作技術について述べる。
本稿では,ローカルトレーニング開始前に不審なモデル更新を通知する,シンプルで軽量で広く適用可能なクライアント側検出機構を提案する。
論文 参考訳(メタデータ) (2025-06-25T17:49:26Z) - Byzantine Outside, Curious Inside: Reconstructing Data Through Malicious Updates [36.2911560725828]
フェデレートラーニング(FL)は、生データを共有せずに分散機械学習を可能にする。
一般に採用されているFLプロトコルでは、プライバシリークが可能である。
FLに新たな脅威モデルを導入し、悪意ある好奇心をそそるクライアントと名づけた。
論文 参考訳(メタデータ) (2025-06-13T02:23:41Z) - Geminio: Language-Guided Gradient Inversion Attacks in Federated Learning [18.326636715274372]
視覚言語モデル(VLM)は、連邦学習(FL)における勾配反転攻撃(GIA)を強化するために武器化することができる。
我々は、GAAを意味論的に意味のある標的攻撃に変換する最初のアプローチであるGeminioを提案する。
攻撃者は自然言語で、彼らが価値と考えるデータを記述でき、Geminioはそれらの高価値なサンプルにフォーカスするために再構築を優先する。
論文 参考訳(メタデータ) (2024-11-22T13:49:56Z) - Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - GI-NAS: Boosting Gradient Inversion Attacks Through Adaptive Neural Architecture Search [52.27057178618773]
グラディエント・インバージョン・アタック (Gradient Inversion Attacks) は、Federated Learning (FL) システムの伝達勾配を反転させ、ローカルクライアントの機密データを再構築する。
勾配反転法の大半は明示的な事前知識に大きく依存しており、現実的なシナリオでは利用できないことが多い。
本稿では,ニューラルネットワークを適応的に探索し,ニューラルネットワークの背後にある暗黙の先行情報をキャプチャするニューラルアーキテクチャ探索(GI-NAS)を提案する。
論文 参考訳(メタデータ) (2024-05-31T09:29:43Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。