論文の概要: GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks
- arxiv url: http://arxiv.org/abs/2511.09294v1
- Date: Thu, 13 Nov 2025 01:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.505447
- Title: GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks
- Title(参考訳): GuardFed: デュアル顔攻撃に対する信頼できるフェデレーション学習フレームワーク
- Authors: Yanli Li, Yanan Zhou, Zhongliang Guo, Nan Yang, Yuning Zhang, Huaming Chen, Dong Yuan, Weiping Ding, Witold Pedrycz,
- Abstract要約: フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
- 参考スコア(独自算出の注目度): 56.983319121358555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables privacy-preserving collaborative model training but remains vulnerable to adversarial behaviors that compromise model utility or fairness across sensitive groups. While extensive studies have examined attacks targeting either objective, strategies that simultaneously degrade both utility and fairness remain largely unexplored. To bridge this gap, we introduce the Dual-Facet Attack (DFA), a novel threat model that concurrently undermines predictive accuracy and group fairness. Two variants, Synchronous DFA (S-DFA) and Split DFA (Sp-DFA), are further proposed to capture distinct real-world collusion scenarios. Experimental results show that existing robust FL defenses, including hybrid aggregation schemes, fail to resist DFAs effectively. To counter these threats, we propose GuardFed, a self-adaptive defense framework that maintains a fairness-aware reference model using a small amount of clean server data augmented with synthetic samples. In each training round, GuardFed computes a dual-perspective trust score for every client by jointly evaluating its utility deviation and fairness degradation, thereby enabling selective aggregation of trustworthy updates. Extensive experiments on real-world datasets demonstrate that GuardFed consistently preserves both accuracy and fairness under diverse non-IID and adversarial conditions, achieving state-of-the-art performance compared with existing robust FL methods.
- Abstract(参考訳): フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーティブモデルトレーニングを可能にする。
どちらの目標も狙う攻撃について広範な研究が行われてきたが、実用性と公正性の両方を同時に低下させる戦略は未解明のままである。
このギャップを埋めるために、予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるDFA(Dual-Facet Attack)を導入する。
また、Synchronous DFA (S-DFA) とSplit DFA (Sp-DFA) の2つの変種が、異なる現実世界の衝突シナリオを捉えるために提案されている。
実験の結果, ハイブリッドアグリゲーションスキームを含む既存の頑健なFLディフェンスはDFAに効果的に抵抗できないことがわかった。
これらの脅威に対処するため、我々は、合成サンプルを付加した少量のクリーンサーバデータを用いて、フェアネスを意識した参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
各トレーニングラウンドで、GuardFedはユーティリティの偏りと公平さの低下を共同で評価することで、クライアント毎の二重パースペクティブ信頼スコアを計算し、信頼できるアップデートの選択的集約を可能にする。
実世界のデータセットに対する大規模な実験により、GuardFedは様々な非IID条件と敵条件下での精度と公正性を一貫して維持し、既存の堅牢なFL法と比較して最先端のパフォーマンスを達成することを示した。
関連論文リスト
- FERD: Fairness-Enhanced Data-Free Robustness Distillation [33.11199368530121]
本稿では,Fairness-Enhanced data-free Robustness Distillation (FERD) フレームワークを提案する。
FERDは、あらゆる敵攻撃の下で最先端の最悪のクラスロバスト性を達成する。
論文 参考訳(メタデータ) (2025-09-25T06:22:11Z) - ProDiGy: Proximity- and Dissimilarity-Based Byzantine-Robust Federated Learning [8.763134188675718]
フェデレートラーニング(FL)は分散ラーニングのパラダイムとして広く研究されている。
本稿では, ProDiGy と呼ばれる新しいビザンチンロバストFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-11T15:25:59Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Logit Calibration and Feature Contrast for Robust Federated Learning on Non-IID Data [45.11652096723593]
Federated Learning(FL)は、エッジネットワークのデバイス上で協調的なモデルトレーニングを行うための、プライバシ保護のための分散フレームワークである。
本稿では,ローカルロジットアンダーラインキャリブレーションとグローバル機能アンダーラインコントラストを,ロジットと特徴の両方の観点から,バニラフェデレーション付き対人訓練プロセスに組み込んだFatCCを提案する。
論文 参考訳(メタデータ) (2024-04-10T06:35:25Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Delving into the Adversarial Robustness of Federated Learning [41.409961662754405]
フェデレートラーニング(FL)では、モデルは敵の例に対して中心的に訓練されたモデルと同じくらい脆弱である。
FLシステムの精度と堅牢性を改善するために,DBFAT(Decision boundary based Federated Adversarial Training)と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-19T04:54:25Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。