論文の概要: Byzantine-Robust Federated Learning via Credibility Assessment on
Non-IID Data
- arxiv url: http://arxiv.org/abs/2109.02396v1
- Date: Mon, 6 Sep 2021 12:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:26:36.020446
- Title: Byzantine-Robust Federated Learning via Credibility Assessment on
Non-IID Data
- Title(参考訳): 非iidデータの信頼性評価によるビザンチンロバストフェデレート学習
- Authors: Kun Zhai and Qiang Ren and Junli Wang and Chungang Yan
- Abstract要約: フェデレートラーニング(Federated Learning)は、リソース制約のあるエッジデバイスがモデルの共同学習を可能にする、新しいフレームワークである。
標準的な連邦学習はビザンツの攻撃に弱い。
非イドデータに対する信頼度評価によるフェデレーション学習のためのビザンチン・ロバストフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.4146420810689422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a novel framework that enables resource-constrained
edge devices to jointly learn a model, which solves the problem of data
protection and data islands. However, standard federated learning is vulnerable
to Byzantine attacks, which will cause the global model to be manipulated by
the attacker or fail to converge. On non-iid data, the current methods are not
effective in defensing against Byzantine attacks. In this paper, we propose a
Byzantine-robust framework for federated learning via credibility assessment on
non-iid data (BRCA). Credibility assessment is designed to detect Byzantine
attacks by combing adaptive anomaly detection model and data verification.
Specially, an adaptive mechanism is incorporated into the anomaly detection
model for the training and prediction of the model. Simultaneously, a unified
update algorithm is given to guarantee that the global model has a consistent
direction. On non-iid data, our experiments demonstrate that the BRCA is more
robust to Byzantine attacks compared with conventional methods
- Abstract(参考訳): フェデレーション学習(federated learning)は、リソース制約のあるエッジデバイスが共同でモデルを学ぶことを可能にする、新しいフレームワークである。
しかし、標準的な連合学習はビザンツ攻撃に弱いため、グローバルモデルが攻撃者によって操作されるか、収束に失敗する。
非iidデータでは、現在の手法はビザンチン攻撃に対する防御には有効ではない。
本稿では,非IDデータ(BRCA)の信頼性評価を通じて,連携学習のためのビザンチン・ロバストフレームワークを提案する。
適応的異常検出モデルとデータ検証を組み合わせることで、ビザンチン攻撃を検出するように設計されている。
特に、モデルのトレーニングと予測のための異常検出モデルに適応的なメカニズムが組み込まれている。
同時に、グローバルモデルが一貫した方向を持つことを保証するために統一更新アルゴリズムが与えられる。
非イドデータでは、BRCAは従来の方法に比べてビザンチン攻撃に対して堅牢であることを示した。
関連論文リスト
- Towards Trustworthy Web Attack Detection: An Uncertainty-Aware Ensemble Deep Kernel Learning Model [4.791983040541727]
本稿では,Web攻撃を検出するために,不確実性を意識したEnsemble Deep Kernel Learning(UEDKL)モデルを提案する。
提案したUEDKLは、ディープカーネル学習モデルを用いて、通常のHTTPリクエストと異なるタイプのWeb攻撃を区別する。
BDCIとSRBHデータセットの実験により、提案したUEDKLフレームワークは、Web攻撃検出性能と不確実性推定品質の両方に大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2024-10-10T08:47:55Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - SureFED: Robust Federated Learning via Uncertainty-Aware Inward and
Outward Inspection [29.491675102478798]
本稿では,堅牢なフェデレーション学習のための新しいフレームワークであるSureFEDを紹介する。
SureFEDは、良識のあるクライアントのローカル情報を使って信頼を確立する。
理論的には、データとモデル中毒攻撃に対するアルゴリズムの堅牢性を証明する。
論文 参考訳(メタデータ) (2023-08-04T23:51:05Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - FedCom: A Byzantine-Robust Local Model Aggregation Rule Using Data
Commitment for Federated Learning [8.165895353387853]
フェデレーション学習は、複数のクライアントがプライベートデータを開示することなく、統計モデルを協調的にトレーニングできる。
ビザンツの労働者がデータ中毒とモデル中毒を発生させる可能性がある。
既存のByzantine-Robust FLスキームのほとんどは、いくつかの高度な毒殺攻撃に対して効果がないか、またはパブリックな検証データセットを集中化する必要がある。
暗号によるコミットメントの考え方を取り入れた、新しいビザンチン・ロバスト連合学習フレームワークであるFedComを提案する。
論文 参考訳(メタデータ) (2021-04-16T10:29:26Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。