論文の概要: Robust Federated Learning for Malicious Clients using Loss Trend Deviation Detection
- arxiv url: http://arxiv.org/abs/2601.20915v1
- Date: Wed, 28 Jan 2026 18:09:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.374175
- Title: Robust Federated Learning for Malicious Clients using Loss Trend Deviation Detection
- Title(参考訳): 損失傾向偏差検出を用いた不正クライアントのロバストフェデレーション学習
- Authors: Deepthy K Bhaskar, Minimol B, Binu V P,
- Abstract要約: フェデレートラーニング(FL)は、ローカルデバイスに生データが残ることを保証しながら、分散クライアント間の協調的なモデルトレーニングを容易にする。
このようなクライアントは、誤解を招く更新を送信することでトレーニングプロセスに干渉し、グローバルモデルのパフォーマンスと信頼性に悪影響を及ぼす可能性がある。
モデル勾配ではなく時間的損失のダイナミクスを監視して悪意のある行動を検知・緩和する,軽量かつプライバシ保護型防衛フレームワークであるFL-LTDを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning (FL) facilitates collaborative model training among distributed clients while ensuring that raw data remains on local devices.Despite this advantage, FL systems are still exposed to risks from malicious or unreliable participants. Such clients can interfere with the training process by sending misleading updates, which can negatively affect the performance and reliability of the global model. Many existing defense mechanisms rely on gradient inspection, complex similarity computations, or cryptographic operations, which introduce additional overhead and may become unstable under non-IID data distributions. In this paper, we propose the Federated Learning with Loss Trend Detection (FL-LTD), a lightweight and privacy-preserving defense framework that detects and mitigates malicious behavior by monitoring temporal loss dynamics rather than model gradients. The proposed approach identifies anomalous clients by detecting abnormal loss stagnation or abrupt loss fluctuations across communication rounds. To counter adaptive attackers, a short-term memory mechanism is incorporated to sustain mitigation for clients previously flagged as anomalous, while enabling trust recovery for stable participants. We evaluate FL-LTD on a non-IID federated MNIST setup under loss manipulation attacks. Experimental results demonstrate that the proposed method significantly enhances robustness, achieving a final test accuracy of 0.84, compared to 0.41 for standard FedAvg under attack. FL-LTD incurs negligible computational and communication overhead, maintains stable convergence, and avoids client exclusion or access to sensitive data, highlighting the effectiveness of loss-based monitoring for secure federated learning.
- Abstract(参考訳): FL(Federated Learning)は、ローカルデバイスに生データが残ることを保証しながら、分散クライアント間の協調的なモデルトレーニングを促進する。この利点にもかかわらず、FLシステムは悪意のある、あるいは信頼できない参加者のリスクにさらされている。
このようなクライアントは、誤解を招く更新を送信することでトレーニングプロセスに干渉し、グローバルモデルの性能と信頼性に悪影響を及ぼす可能性がある。
既存の防衛機構の多くは、勾配検査、複雑な類似性計算、あるいは暗号演算に依存しており、これは追加のオーバーヘッドをもたらし、非IIDデータ分散の下で不安定になる可能性がある。
本稿では,モデル勾配ではなく時間的損失ダイナミクスをモニタリングすることにより,悪意のある行動を検知・緩和する,軽量かつプライバシ保護型防衛フレームワークFL-LTDを提案する。
提案手法は,通信ラウンド間の異常損失の停滞や突然の損失変動を検知し,異常なクライアントを識別する。
適応攻撃に対抗するため、短期記憶機構が組み込まれ、従来異常としてフラグ付けされていたクライアントの緩和を継続し、安定した参加者の信頼回復を可能にする。
損失操作攻撃時の非IIDフェデレーションMNISTにおけるFL-LTDの評価を行った。
実験の結果,提案手法は攻撃時のFedAvgの0.41に対して,最終試験精度0.84を達成し,ロバスト性を大幅に向上することが示された。
FL-LTDは、無視可能な計算と通信のオーバーヘッドを発生させ、安定した収束を維持し、クライアントの排除や機密データへのアクセスを回避し、安全なフェデレーション学習のための損失ベースのモニタリングの有効性を強調している。
関連論文リスト
- Stragglers Can Contribute More: Uncertainty-Aware Distillation for Asynchronous Federated Learning [61.249748418757946]
Asynchronous Federated Learning (FL)は、その効率性とスケーラビリティの向上に注目されている。
我々は,不確実性を考慮した蒸留を組み込んだ新しいフレームワークであるFedEchoを提案し,非同期FL性能を向上する。
FedEchoが既存の非同期フェデレーション学習ベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-11-25T06:25:25Z) - FLARE: Adaptive Multi-Dimensional Reputation for Robust Client Reliability in Federated Learning [0.6524460254566904]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
ビザンツの攻撃、データ中毒、あるいは適応的な敵行動を通じてモデルの完全性を侵害する悪意のあるクライアントには、依然として脆弱である。
FLAREは,クライアントの信頼性評価を二分決定から連続的多次元信頼評価に変換するアダプティブな評価ベースフレームワークである。
論文 参考訳(メタデータ) (2025-11-18T17:57:40Z) - TrustLoRA: Low-Rank Adaptation for Failure Detection under Out-of-distribution Data [62.22804234013273]
本稿では,共変量および意味的シフトの両条件下での拒絶による分類を統一し,促進する,単純な故障検出フレームワークを提案する。
キーとなる洞察は、障害固有の信頼性知識を低ランクアダプタで分離し、統合することにより、障害検出能力を効果的かつ柔軟に向上できるということです。
論文 参考訳(メタデータ) (2025-04-20T09:20:55Z) - SMTFL: Secure Model Training to Untrusted Participants in Federated Learning [8.225656436115509]
フェデレートラーニング(Federated Learning)は、分散モデルトレーニングのテクニックである。
勾配反転攻撃と中毒攻撃は、トレーニングデータのプライバシーとモデルの正しさに重大なリスクをもたらす。
我々は,信頼された参加者に頼らずに,フェデレート学習における安全なモデルトレーニングを実現するための,SMTFLと呼ばれる新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-04T06:12:43Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。