論文の概要: Poison to Detect: Detection of Targeted Overfitting in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.11974v1
- Date: Mon, 15 Sep 2025 14:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.339133
- Title: Poison to Detect: Detection of Targeted Overfitting in Federated Learning
- Title(参考訳): フェデレーション学習における目標オーバーフィッティングの検出
- Authors: Soumia Zohra El Mestari, Maciej Krzysztof Zuziak, Gabriele Lenzini,
- Abstract要約: フェデレートラーニング(FL)は、ローカルデータをプライベートに保ちながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
プライバシーの利点があるにもかかわらず、FLは特定のクライアントをターゲットにしているものを含むプライバシー攻撃に弱いままだ。
本研究では,不正直なオーケストラが意図的にアグリゲーションプロセスを操作し,ターゲットのオーバーフィッティングを誘発する,過度に探索された脅威について検討する。
クライアントがグローバルアグリゲーションの完全性を検証するための3つの検出手法を提案する。
- 参考スコア(独自算出の注目度): 1.593065406609169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across decentralised clients while keeping local data private, making it a widely adopted privacy-enhancing technology (PET). Despite its privacy benefits, FL remains vulnerable to privacy attacks, including those targeting specific clients. In this paper, we study an underexplored threat where a dishonest orchestrator intentionally manipulates the aggregation process to induce targeted overfitting in the local models of specific clients. Whereas many studies in this area predominantly focus on reducing the amount of information leakage during training, we focus on enabling an early client-side detection of targeted overfitting, thereby allowing clients to disengage before significant harm occurs. In line with this, we propose three detection techniques - (a) label flipping, (b) backdoor trigger injection, and (c) model fingerprinting - that enable clients to verify the integrity of the global aggregation. We evaluated our methods on multiple datasets under different attack scenarios. Our results show that the three methods reliably detect targeted overfitting induced by the orchestrator, but they differ in terms of computational complexity, detection latency, and false-positive rates.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散クライアント間で協調的なモデルトレーニングを可能にし、ローカルデータをプライベートに保ち、広く採用されているプライバシ強化技術(PET)である。
プライバシーの利点があるにもかかわらず、FLは特定のクライアントをターゲットにしているものを含むプライバシー攻撃に弱いままだ。
本稿では,不正直なオーケストレータが意図的にアグリゲーション処理を操作し,特定のクライアントの局所モデルにターゲットオーバーフィッティングを誘導する,過度に探索された脅威について検討する。
この領域における多くの研究は、トレーニング中の情報漏洩量の削減に重点を置いているが、我々は、ターゲットオーバーフィッティングを早期にクライアント側で検出できることに重点を置いている。
これに合わせて,我々は3つの検出手法を提案する。
(a)ラベルフリップ、
(b)バックドア・トリガー・インジェクション、及び
(c) モデルフィンガープリント - クライアントがグローバルアグリゲーションの完全性を検証することができる。
攻撃シナリオの異なる複数のデータセットに対して,本手法の評価を行った。
提案手法は,オーケストレータによって誘導される目標過適合を確実に検出するが,計算複雑性,検出遅延,偽陽性率の点で異なる。
関連論文リスト
- Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - Subject Data Auditing via Source Inference Attack in Cross-Silo Federated Learning [23.205866835083455]
フェデレートラーニング(FL)におけるソース推論攻撃(SIA)は、どのクライアントがローカルモデルトレーニングにターゲットデータポイントを使用しているかを特定することを目的としている。
主観的メンバーシップ推論攻撃(SMIA)は、任意のクライアントが対象対象からデータポイントを利用するかどうかをクロスサイロFLで推測しようとする。
本稿では,SAIにおいてターゲットデータポイントを1つのクライアントでのみ使用可能な臨界制約を除去し,SLSIA(Subject-Level Source Inference Attack)を提案する。
論文 参考訳(メタデータ) (2024-09-28T17:27:34Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。