論文の概要: SecureFed: A Two-Phase Framework for Detecting Malicious Clients in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.16458v1
- Date: Thu, 19 Jun 2025 16:52:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.173385
- Title: SecureFed: A Two-Phase Framework for Detecting Malicious Clients in Federated Learning
- Title(参考訳): SecureFed:フェデレーション学習における悪意あるクライアント検出のための2相フレームワーク
- Authors: Likhitha Annapurna Kavuri, Akshay Mhatre, Akarsh K Nair, Deepti Gupta,
- Abstract要約: フェデレートラーニング(FL)は、モデルをトレーニングするための分散メソッドを提供しながら、データのプライバシを保護する。
分散スキーマのため、結果を変えたり、モデルのパフォーマンスを妨害したりできる敵のクライアントに感受性がある。
本研究では,攻撃者の影響を識別・低減する二相FLフレームワークSecureFedを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) protects data privacy while providing a decentralized method for training models. However, because of the distributed schema, it is susceptible to adversarial clients that could alter results or sabotage model performance. This study presents SecureFed, a two-phase FL framework for identifying and reducing the impact of such attackers. Phase 1 involves collecting model updates from participating clients and applying a dimensionality reduction approach to identify outlier patterns frequently associated with malicious behavior. Temporary models constructed from the client updates are evaluated on synthetic datasets to compute validation losses and support anomaly scoring. The idea of learning zones is presented in Phase 2, where weights are dynamically routed according to their contribution scores and gradient magnitudes. High-value gradient zones are given greater weight in aggregation and contribute more significantly to the global model, while lower-value gradient zones, which may indicate possible adversarial activity, are gradually removed from training. Until the model converges and a strong defense against poisoning attacks is possible, this training cycle continues Based on the experimental findings, SecureFed considerably improves model resilience without compromising model performance.
- Abstract(参考訳): フェデレートラーニング(FL)は、モデルをトレーニングするための分散メソッドを提供しながら、データのプライバシを保護する。
しかし、分散スキーマのため、結果を変えたり、モデルのパフォーマンスを妨害したりできる敵のクライアントには影響を受けやすい。
本研究では,攻撃者の影響を識別・低減する二相FLフレームワークSecureFedを提案する。
フェーズ1では、参加するクライアントからモデル更新を収集し、悪意のある振る舞いに頻繁に関連するアウトリーチパターンを特定するために次元的削減アプローチを適用する。
クライアント更新から構築された一時的なモデルを合成データセットで評価し、検証損失を計算し、異常スコアをサポートする。
学習ゾーンの考え方はフェーズ2で示され、ウェイトはその貢献のスコアと勾配の程度に応じて動的にルーティングされる。
高値勾配帯は凝集度が大きく、大域的なモデルに寄与するが、低値勾配帯は相反する活性を示す可能性があるが、徐々に訓練から外される。
モデルが収束し、毒性攻撃に対する強力な防御が可能になるまで、このトレーニングサイクルは実験結果に基づいて継続され、SecureFedはモデル性能を損なうことなくモデルレジリエンスを大幅に改善する。
関連論文リスト
- Evaluating Query Efficiency and Accuracy of Transfer Learning-based Model Extraction Attack in Federated Learning [4.275908952997288]
Federated Learning(FL)は、クライアントデータを保護するために設計された協調学習フレームワークである。
FLのプライバシ保護の目標にもかかわらず、その分散した性質は特に抽出攻撃のモデルに感受性がある。
本稿では,FLをベースとした2種類のモデル抽出攻撃に対する被害者モデルの脆弱性について検討する。
論文 参考訳(メタデータ) (2025-05-25T22:40:10Z) - SMTFL: Secure Model Training to Untrusted Participants in Federated Learning [8.225656436115509]
フェデレートラーニング(Federated Learning)は、分散モデルトレーニングのテクニックである。
勾配反転攻撃と中毒攻撃は、トレーニングデータのプライバシーとモデルの正しさに重大なリスクをもたらす。
我々は,信頼された参加者に頼らずに,フェデレート学習における安全なモデルトレーニングを実現するための,SMTFLと呼ばれる新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-04T06:12:43Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - STDLens: Model Hijacking-Resilient Federated Learning for Object
Detection [13.895922908738507]
Federated Learning (FL)は、ディープラーニングに基づくオブジェクト検出モデルをクライアントの分散集団でトレーニングするための協調学習フレームワークとして人気を集めている。
その利点にもかかわらず、FLはモデルハイジャックに弱い。
本稿では,このような攻撃に対してFLを保護するための原則的アプローチであるSTDLensを紹介する。
論文 参考訳(メタデータ) (2023-03-21T00:15:53Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。