論文の概要: FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2310.02113v1
- Date: Tue, 3 Oct 2023 14:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 13:50:42.388191
- Title: FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks
- Title(参考訳): FLEDGE: 推論とバックドア攻撃に耐性を持つLedgerベースのフェデレーションラーニング
- Authors: Jorge Castillo, Phillip Rieger, Hossein Fereidooni, Qian Chen, Ahmad
Sadeghi
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
- 参考スコア(独自算出の注目度): 8.866045560761528
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated learning (FL) is a distributed learning process that uses a trusted
aggregation server to allow multiple parties (or clients) to collaboratively
train a machine learning model without having them share their private data.
Recent research, however, has demonstrated the effectiveness of inference and
poisoning attacks on FL. Mitigating both attacks simultaneously is very
challenging. State-of-the-art solutions have proposed the use of poisoning
defenses with Secure Multi-Party Computation (SMPC) and/or Differential Privacy
(DP). However, these techniques are not efficient and fail to address the
malicious intent behind the attacks, i.e., adversaries (curious servers and/or
compromised clients) seek to exploit a system for monetization purposes. To
overcome these limitations, we present a ledger-based FL framework known as
FLEDGE that allows making parties accountable for their behavior and achieve
reasonable efficiency for mitigating inference and poisoning attacks. Our
solution leverages crypto-currency to increase party accountability by
penalizing malicious behavior and rewarding benign conduct. We conduct an
extensive evaluation on four public datasets: Reddit, MNIST, Fashion-MNIST, and
CIFAR-10. Our experimental results demonstrate that (1) FLEDGE provides strong
privacy guarantees for model updates without sacrificing model utility; (2)
FLEDGE can successfully mitigate different poisoning attacks without degrading
the performance of the global model; and (3) FLEDGE offers unique reward
mechanisms to promote benign behavior during model training and/or model
aggregation.
- Abstract(参考訳): Federated Learning(FL)は、信頼できる集約サーバを使用して、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、機械学習モデルを協調的にトレーニングできるようにする分散学習プロセスである。
しかし最近の研究は、FLに対する推論と中毒攻撃の有効性を実証している。
両方の攻撃を同時に緩和することは非常に難しい。
最先端のソリューションは、セキュアなマルチパーティ計算(smpc)および/またはディファレンシャルプライバシ(dp)による中毒防御の使用を提案している。
しかし、これらの手法は効率的ではなく、攻撃の背後にある悪意ある意図、すなわち敵(悪質なサーバやクライアント)が収益化のためにシステムを活用することに対処できない。
これらの制限を克服するため,我々は,当事者の行動に対する責任を負わせ,推論や毒殺攻撃の緩和に合理的な効率性を達成するために,ledgerベースのflフレームワークであるnonegeを提案する。
当社のソリューションでは,不正行為を罰し,良性行為に報酬を与えることで,当事者説明責任を高めるために暗号通貨を活用する。
我々は、Reddit、MNIST、Fashion-MNIST、CIFAR-10の4つの公開データセットに対して広範な評価を行う。
実験の結果,(1) FLEDGEはモデルの有用性を犠牲にすることなく,モデル更新に対して強力なプライバシ保証を提供し,(2) FLEDGEは,グローバルモデルの性能を低下させることなく,異なる毒性攻撃を軽減し,(3) FLEDGEは,モデルトレーニングやモデルアグリゲーションにおける良質な行動を促進する独自の報酬メカニズムを提供することがわかった。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Defending Against Poisoning Attacks in Federated Learning with
Blockchain [12.840821573271999]
ブロックチェーンと分散台帳技術に基づくセキュアで信頼性の高いフェデレーション学習システムを提案する。
本システムでは,オンチェーン型スマートコントラクトを利用したピアツーピア投票機構と報酬アンドスラッシュ機構を組み込んで,悪意ある行動の検出と検出を行う。
論文 参考訳(メタデータ) (2023-07-02T11:23:33Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLock: Defending Malicious Behaviors in Federated Learning with
Blockchain [3.0111384920731545]
Federated Learning(FL)は、複数のデータ所有者(クライアント)が協力して機械学習モデルをトレーニングできるようにする、有望な方法だ。
ブロックチェーン上に構築されたセキュアで信頼性の高い分散型FLシステムであるFLockを実現するために,分散台帳技術(DLT)を利用することを提案する。
論文 参考訳(メタデータ) (2022-11-05T06:14:44Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Untargeted Poisoning Attack Detection in Federated Learning via Behavior
Attestation [7.979659145328856]
Federated Learning(FL)は、機械学習(ML)におけるパラダイムであり、データプライバシ、セキュリティ、アクセス権、異種情報問題へのアクセスを扱う。
その利点にもかかわらず、flベースのml技術によるサイバー攻撃は利益を損なう可能性がある。
悪意のあるワーカを検出するために,状態永続化を通じて個々のノードのトレーニングを監視する防御機構であるattestedflを提案する。
論文 参考訳(メタデータ) (2021-01-24T20:52:55Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - BlockFLow: An Accountable and Privacy-Preserving Solution for Federated
Learning [2.0625936401496237]
BlockFLowは、完全な分散化とプライバシ保護を備えた、説明可能なフェデレーション学習システムである。
その主な目標は、基盤となるデータセットのプライバシ保護と悪意のある敵に対する耐性を確保しながら、コントリビューションの品質に比例するエージェントに報酬を与えることである。
論文 参考訳(メタデータ) (2020-07-08T02:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。