論文の概要: BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture
- arxiv url: http://arxiv.org/abs/2010.07427v1
- Date: Wed, 14 Oct 2020 22:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 14:40:05.966898
- Title: BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture
- Title(参考訳): BlockFLA: ハイブリッドブロックチェーンアーキテクチャによる説明可能なフェデレーション学習
- Authors: Harsh Bimal Desai, Mustafa Safa Ozdayi, Murat Kantarcioglu
- Abstract要約: Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
- 参考スコア(独自算出の注目度): 11.908715869667445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a distributed, and decentralized machine learning
protocol. By executing FL, a set of agents can jointly train a model without
sharing their datasets with each other, or a third-party. This makes FL
particularly suitable for settings where data privacy is desired.
At the same time, concealing training data gives attackers an opportunity to
inject backdoors into the trained model. It has been shown that an attacker can
inject backdoors to the trained model during FL, and then can leverage the
backdoor to make the model misclassify later. Several works tried to alleviate
this threat by designing robust aggregation functions. However, given more
sophisticated attacks are developed over time, which by-pass the existing
defenses, we approach this problem from a complementary angle in this work.
Particularly, we aim to discourage backdoor attacks by detecting, and punishing
the attackers, possibly after the end of training phase.
To this end, we develop a hybrid blockchain-based FL framework that uses
smart contracts to automatically detect, and punish the attackers via monetary
penalties. Our framework is general in the sense that, any aggregation
function, and any attacker detection algorithm can be plugged into it. We
conduct experiments to demonstrate that our framework preserves the
communication-efficient nature of FL, and provide empirical results to
illustrate that it can successfully penalize attackers by leveraging our novel
attacker detection algorithm.
- Abstract(参考訳): Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
flを実行することにより、エージェントのセットは、データセットを互いに共有することなく、あるいはサードパーティと共同でモデルを訓練することができる。
これにより、FLは特にデータのプライバシが求められる設定に適している。
同時に、トレーニングデータの隠蔽は、攻撃者がトレーニングされたモデルにバックドアを注入する機会を与える。
FL中、攻撃者は訓練されたモデルにバックドアを注入でき、その後、バックドアを利用してモデルを後で誤分類できる。
この脅威を和らげるために、ロバストなアグリゲーション関数を設計した作品がいくつかある。
しかし、より高度な攻撃が時間をかけて開発され、既存の防御をバイパスすることで、本研究の補完的な角度からこの問題にアプローチする。
特に、訓練期間終了後に攻撃者を検知し、罰し、バックドア攻撃を防止することを目的としている。
この目的のために、スマートコントラクトを使用して攻撃者を自動的に検出し、金銭的罰則によって罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
私たちのフレームワークは、アグリゲーション関数や攻撃者検出アルゴリズムをプラグインできるという意味では一般的なものです。
我々は,このフレームワークがFLの通信効率のよい性質を保っていることを示す実験を行い,新たな攻撃者検出アルゴリズムを活用して攻撃者を罰則化できることを示す。
関連論文リスト
- Securing Federated Learning Against Novel and Classic Backdoor Threats During Foundation Model Integration [8.191214701984162]
フェデレートラーニング(FL)は、プライバシを保護しながら、分散モデルトレーニングを可能にする。
近年、ファンデーションモデル(FM)をFLに統合することで性能が向上する一方で、新たなバックドア攻撃機構が導入されている。
本稿では,サーバ上でのモデルアグリゲーション中に隠れた特徴空間における異常なアクティベーションを制限し,新たなデータフリー防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-10-23T05:54:41Z) - Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - Venomancer: Towards Imperceptible and Target-on-Demand Backdoor Attacks in Federated Learning [16.04315589280155]
本稿では,効果的なバックドア攻撃であるVenomancerを提案する。
この方法は、Norm Clipping、Wak DP、Krum、Multi-Krum、RLR、FedRAD、Deepsight、RFLBATといった最先端の防御に対して堅牢である。
論文 参考訳(メタデータ) (2024-07-03T14:22:51Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。