論文の概要: SABRE: Robust Bayesian Peer-to-Peer Federated Learning
- arxiv url: http://arxiv.org/abs/2308.02747v1
- Date: Fri, 4 Aug 2023 23:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 18:58:02.725210
- Title: SABRE: Robust Bayesian Peer-to-Peer Federated Learning
- Title(参考訳): sabre: 堅牢なベイジアンピアツーピア連合学習
- Authors: Nasimeh Heydaribeni, Ruisi Zhang, Tara Javidi, Cristina Nita-Rotaru,
Farinaz Koushanfar
- Abstract要約: 本研究では,頑健なベイズ的ピアツーピア・フェデレーション学習のための新しいフレームワークであるSABREを紹介する。
ベイジアンピアツーピア・フェデレーション学習フレームワークBayP2PFL(BayP2PFL)の毒性攻撃に対する堅牢性について検討した。
- 参考スコア(独自算出の注目度): 32.00268988227405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce SABRE, a novel framework for robust variational Bayesian
peer-to-peer federated learning. We analyze the robustness of the known
variational Bayesian peer-to-peer federated learning framework (BayP2PFL)
against poisoning attacks and subsequently show that BayP2PFL is not robust
against those attacks. The new SABRE aggregation methodology is then devised to
overcome the limitations of the existing frameworks. SABRE works well in
non-IID settings, does not require the majority of the benign nodes over the
compromised ones, and even outperforms the baseline algorithm in benign
settings. We theoretically prove the robustness of our algorithm against data /
model poisoning attacks in a decentralized linear regression setting.
Proof-of-Concept evaluations on benchmark data from image classification
demonstrate the superiority of SABRE over the existing frameworks under various
poisoning attacks.
- Abstract(参考訳): 本稿では,変動ベイズ型ピアツーピアフェデレーション学習のための新しいフレームワークであるsabreを紹介する。
既知変動ベイズ型ピアツーピアフェデレーション学習フレームワーク(bayp2pfl)の中毒攻撃に対するロバスト性を分析し,その攻撃に対してbayp2pflがロバストでないことを示す。
新しいSABREアグリゲーション方法論は、既存のフレームワークの制限を克服するために考案される。
SABREは、非IID設定でうまく機能し、妥協したノードよりも良質なノードの大部分を必要とせず、良質な設定でベースラインアルゴリズムよりも優れています。
理論上,分散線形回帰設定におけるデータ・モデル中毒攻撃に対するアルゴリズムのロバスト性を証明する。
画像分類によるベンチマークデータに対する概念実証評価は、様々な毒殺攻撃下の既存のフレームワークよりもsabreが優れていることを示している。
関連論文リスト
- Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシー侵害に対する懸念の高まりに対処している。
ローカルデータセットに対するサーバーの盲目は、毒殺攻撃をモデル化する脆弱性を導入している。
FedCCは、Centered Kernel Alignment of Penultimate Layers Representationsを比較することで、堅牢なアグリゲーションを提供する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Byzantine-Robust Federated Learning via Credibility Assessment on
Non-IID Data [1.4146420810689422]
フェデレートラーニング(Federated Learning)は、リソース制約のあるエッジデバイスがモデルの共同学習を可能にする、新しいフレームワークである。
標準的な連邦学習はビザンツの攻撃に弱い。
非イドデータに対する信頼度評価によるフェデレーション学習のためのビザンチン・ロバストフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-06T12:18:02Z) - FedCom: A Byzantine-Robust Local Model Aggregation Rule Using Data
Commitment for Federated Learning [8.165895353387853]
フェデレーション学習は、複数のクライアントがプライベートデータを開示することなく、統計モデルを協調的にトレーニングできる。
ビザンツの労働者がデータ中毒とモデル中毒を発生させる可能性がある。
既存のByzantine-Robust FLスキームのほとんどは、いくつかの高度な毒殺攻撃に対して効果がないか、またはパブリックな検証データセットを集中化する必要がある。
暗号によるコミットメントの考え方を取り入れた、新しいビザンチン・ロバスト連合学習フレームワークであるFedComを提案する。
論文 参考訳(メタデータ) (2021-04-16T10:29:26Z) - A Comprehensive Evaluation Framework for Deep Model Robustness [44.20580847861682]
ディープニューラルネットワーク(DNN)は、幅広いアプリケーションで顕著なパフォーマンスを達成しています。
彼らは敵の防御を動機付ける敵の例に弱い。
本稿では,包括的で厳密で一貫性のある評価指標を含むモデル評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-24T01:04:25Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。