論文の概要: Untargeted Poisoning Attack Detection in Federated Learning via Behavior
Attestation
- arxiv url: http://arxiv.org/abs/2101.10904v2
- Date: Thu, 28 Jan 2021 14:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:16:56.600019
- Title: Untargeted Poisoning Attack Detection in Federated Learning via Behavior
Attestation
- Title(参考訳): 行動検証によるフェデレーション学習における無標的中毒攻撃検出
- Authors: Ranwa Al Mallah, David Lopez, Bilal Farooq
- Abstract要約: Federated Learning(FL)は、機械学習(ML)におけるパラダイムであり、データプライバシ、セキュリティ、アクセス権、異種情報問題へのアクセスを扱う。
その利点にもかかわらず、flベースのml技術によるサイバー攻撃は利益を損なう可能性がある。
悪意のあるワーカを検出するために,状態永続化を通じて個々のノードのトレーニングを監視する防御機構であるattestedflを提案する。
- 参考スコア(独自算出の注目度): 7.979659145328856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a paradigm in Machine Learning (ML) that addresses
data privacy, security, access rights and access to heterogeneous information
issues by training a global model using distributed nodes. Despite its
advantages, there is an increased potential for cyberattacks on FL-based ML
techniques that can undermine the benefits. Model-poisoning attacks on FL
target the availability of the model. The adversarial objective is to disrupt
the training. We propose attestedFL, a defense mechanism that monitors the
training of individual nodes through state persistence in order to detect a
malicious worker. A fine-grained assessment of the history of the worker
permits the evaluation of its behavior in time and results in innovative
detection strategies. We present three lines of defense that aim at assessing
if the worker is reliable by observing if the node is really training,
advancing towards a goal. Our defense exposes an attacker's malicious behavior
and removes unreliable nodes from the aggregation process so that the FL
process converge faster. Through extensive evaluations and against various
adversarial settings, attestedFL increased the accuracy of the model between
12% to 58% under different scenarios such as attacks performed at different
stages of convergence, attackers colluding and continuous attacks.
- Abstract(参考訳): Federated Learning(FL)は機械学習(ML)のパラダイムであり、分散ノードを使用してグローバルモデルをトレーニングすることで、データのプライバシ、セキュリティ、アクセス権、異種情報へのアクセスに対処する。
その利点にもかかわらず、flベースのml技術によるサイバー攻撃は利益を損なう可能性がある。
FLに対するモデルポゾニング攻撃はモデルの可用性を目標とする。
敵対的な目的は訓練を中断することです。
悪意のあるワーカを検出するために,状態永続化を通じて個々のノードのトレーニングを監視する防御機構であるattestedflを提案する。
作業者の履歴のきめ細かい評価は、その行動の時間的評価を可能にし、革新的な検出戦略をもたらす。
ノードが本当に訓練されているかを観察し、目標に向かって進むことにより、作業者が信頼できるかどうかを評価することを目的とした3つの防衛線を示す。
我々の防御は攻撃者の悪意ある振る舞いを露呈し、信頼できないノードを集約プロセスから取り除き、FLプロセスはより早く収束する。
広範囲な評価とさまざまな敵対的設定により、AttestedFLは、収束の異なる段階で実行される攻撃、攻撃者が衝突し、連続攻撃などの異なるシナリオの下で、モデルの精度を12%から58%に向上させた。
関連論文リスト
- Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。