論文の概要: Sentinel: An Aggregation Function to Secure Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2310.08097v4
- Date: Wed, 4 Sep 2024 08:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 12:43:35.641957
- Title: Sentinel: An Aggregation Function to Secure Decentralized Federated Learning
- Title(参考訳): Sentinel: 分散型フェデレーション学習をセキュアにするためのアグリゲーション機能
- Authors: Chao Feng, Alberto Huertas Celdrán, Janosch Baltensperger, Enrique Tomás Martínez Beltrán, Pedro Miguel Sánchez Sánchez, Gérôme Bovet, Burkhard Stiller,
- Abstract要約: Decentralized Federated Learning (DFL)は、協調モデルをトレーニングするための革新的なパラダイムとして登場し、単一障害点に対処する。
既存の防御機構は集中型FLのために設計されており、DFLの特異性を十分に活用していない。
この研究は、DFLの毒殺攻撃に対抗する防衛戦略であるSentinelを紹介した。
- 参考スコア(独自算出の注目度): 9.046402244232343
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Decentralized Federated Learning (DFL) emerges as an innovative paradigm to train collaborative models, addressing the single point of failure limitation. However, the security and trustworthiness of FL and DFL are compromised by poisoning attacks, negatively impacting its performance. Existing defense mechanisms have been designed for centralized FL and they do not adequately exploit the particularities of DFL. Thus, this work introduces Sentinel, a defense strategy to counteract poisoning attacks in DFL. Sentinel leverages the accessibility of local data and defines a three-step aggregation protocol consisting of similarity filtering, bootstrap validation, and normalization to safeguard against malicious model updates. Sentinel has been evaluated with diverse datasets and data distributions. Besides, various poisoning attack types and threat levels have been verified. The results improve the state-of-the-art performance against both untargeted and targeted poisoning attacks when data follows an IID (Independent and Identically Distributed) configuration. Besides, under non-IID configuration, it is analyzed how performance degrades both for Sentinel and other state-of-the-art robust aggregation methods.
- Abstract(参考訳): Decentralized Federated Learning (DFL)は、協調モデルをトレーニングするための革新的なパラダイムとして登場し、単一障害点に対処する。
しかし、FLとDFLの安全性と信頼性は、毒性攻撃によって損なわれ、その性能に悪影響を及ぼす。
既存の防御機構は集中型FLのために設計されており、DFLの特異性を十分に活用していない。
そこで本研究では,DFLの毒殺対策戦略であるSentinelを紹介した。
Sentinelはローカルデータのアクセシビリティを活用し、類似性のフィルタリング、ブートストラップ検証、悪意のあるモデル更新に対する保護のための正規化からなる3段階のアグリゲーションプロトコルを定義する。
Sentinelは多様なデータセットとデータ分散で評価されている。
毒の種類や脅威レベルも確認されている。
その結果、IID(Independent and Identically Distributed)設定に従えば、未ターゲットおよびターゲットの毒殺攻撃に対する最先端のパフォーマンスが向上する。
さらに、非IID構成下では、Sentinelと他の最先端のロバストアグリゲーション手法の両方でパフォーマンスが劣化するかを解析する。
関連論文リスト
- Leveraging MTD to Mitigate Poisoning Attacks in Decentralized FL with Non-IID Data [9.715501137911552]
本稿では,DFLモデルのロバスト性を高めるため,移動目標防衛(MTD)アプローチを用いたフレームワークを提案する。
この枠組みはDFLシステムの攻撃面を継続的に修正することにより、効果的に中毒攻撃を緩和することを目的としている。
論文 参考訳(メタデータ) (2024-09-28T10:09:37Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Poisoning with A Pill: Circumventing Detection in Federated Learning [33.915489514978084]
本稿では,FLにおける検出に対する既存のFL中毒攻撃の有効性とステルス性を高めるために,汎用的かつ攻撃に依存しない拡張手法を提案する。
具体的には、FLトレーニング中に、戦略的にピルを構築、生成、注入する3段階の方法論を用いており、それに従ってピル構築、ピル中毒およびピル注入と命名されている。
論文 参考訳(メタデータ) (2024-07-22T05:34:47Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。