論文の概要: Long-Short History of Gradients is All You Need: Detecting Malicious and
Unreliable Clients in Federated Learning
- arxiv url: http://arxiv.org/abs/2208.10273v1
- Date: Sun, 14 Aug 2022 04:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-28 22:16:54.071420
- Title: Long-Short History of Gradients is All You Need: Detecting Malicious and
Unreliable Clients in Federated Learning
- Title(参考訳): グラデーションの長い歴史 - フェデレーション学習における悪意のある、信頼性の低いクライアントの検出
- Authors: Ashish Gupta, Tie Luo, Mao V. Ngo, Sajal K. Das
- Abstract要約: フェデレーション学習は、参加者のプライバシを保持しながら、分散形式で機械学習モデルをトレーニングするフレームワークを提供する。
サーバはクライアントのアクションを管理できないため、悪意のあるクライアントは悪意のあるローカル勾配を送信することで、グローバルモデルを攻撃する可能性がある。
本稿では、検出された悪意のあるクライアントと信頼できないクライアントを別々に扱う新しい防御アルゴリズムであるMUD-HoGを紹介する。
- 参考スコア(独自算出の注目度): 11.080316096820466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning offers a framework of training a machine learning model in
a distributed fashion while preserving privacy of the participants. As the
server cannot govern the clients' actions, nefarious clients may attack the
global model by sending malicious local gradients. In the meantime, there could
also be unreliable clients who are benign but each has a portion of low-quality
training data (e.g., blur or low-resolution images), thus may appearing similar
as malicious clients. Therefore, a defense mechanism will need to perform a
three-fold differentiation which is much more challenging than the conventional
(two-fold) case. This paper introduces MUD-HoG, a novel defense algorithm that
addresses this challenge in federated learning using long-short history of
gradients, and treats the detected malicious and unreliable clients
differently. Not only this, but we can also distinguish between targeted and
untargeted attacks among malicious clients, unlike most prior works which only
consider one type of the attacks. Specifically, we take into account
sign-flipping, additive-noise, label-flipping, and multi-label-flipping
attacks, under a non-IID setting. We evaluate MUD-HoG with six state-of-the-art
methods on two datasets. The results show that MUD-HoG outperforms all of them
in terms of accuracy as well as precision and recall, in the presence of a
mixture of multiple (four) types of attackers as well as unreliable clients.
Moreover, unlike most prior works which can only tolerate a low population of
harmful users, MUD-HoG can work with and successfully detect a wide range of
malicious and unreliable clients - up to 47.5% and 10%, respectively, of the
total population. Our code is open-sourced at
https://github.com/LabSAINT/MUD-HoG_Federated_Learning.
- Abstract(参考訳): フェデレーション学習は、参加者のプライバシーを維持しながら、分散形式で機械学習モデルをトレーニングするフレームワークを提供する。
サーバはクライアントのアクションを制御できないため、悪質なクライアントは悪質なローカル勾配を送信することでグローバルモデルを攻撃することができる。
一方、信頼できないクライアントもいるが、それぞれが低品質のトレーニングデータの一部(ぼやけた画像や低解像度画像など)を持っているため、悪意のあるクライアントのように見える可能性がある。
したがって、防御機構は従来の(2倍の)ケースよりもはるかに難しい3倍の微分を行う必要がある。
本稿では,この課題に対処する新しい防衛アルゴリズムであるMUD-HoGを紹介し,検出された悪質で信頼性の低いクライアントを別々に扱う。
これだけでなく、悪意のあるクライアント間のターゲット攻撃と非ターゲット攻撃の区別も可能です。
具体的には,非iid設定下で,サインフライピング,付加雑音,ラベルフライピング,マルチラベルフライピング攻撃を考慮に入れる。
MUD-HoGを2つのデータセット上で6つの最先端手法で評価する。
その結果、MUD-HoGは、複数の(4)タイプの攻撃者と信頼性の低いクライアントが混在している場合、正確さと正確さ、リコールの点で、これらすべてを上回る性能を示した。
さらに、悪質な利用者の少ない人口しか許容できないほとんどの先行作品とは異なり、mud-hogは、全人口の47.5%と10%の、広範囲の悪意のあるクライアントと信頼できないクライアントを協力し、うまく検出することができる。
私たちのコードはhttps://github.com/LabSAINT/MUD-HoG_Federated_Learningで公開されている。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Suppressing Poisoning Attacks on Federated Learning for Medical Imaging [4.433842217026879]
本稿では, ビザンチン障害に対する耐性を有する分散型外乱抑制法(DOS)を提案する。
提案手法は,異なるクライアントのローカルパラメータ更新間の距離を計算し,各クライアントに対してアウトラヤスコアを求める。
得られたアウトリーチスコアはソフトマックス関数を用いて正規化重みに変換され、局所パラメータの重み付け平均がグローバルモデル更新に使用される。
論文 参考訳(メタデータ) (2022-07-15T00:43:34Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - Provably Secure Federated Learning against Malicious Clients [31.85264586217373]
悪意のあるクライアントは、グローバルモデルを破損させて、テスト例の誤ったラベルを予測することができます。
我々のアンサンブル・フェデレーション・ラーニングとベース・フェデレーション・ラーニング・アルゴリズムは、悪意のあるクライアントに対して確実に安全であることを示す。
本手法は,1000件中20件のクライアントが悪意のある場合,MNISTに対して88%の認証精度を達成できる。
論文 参考訳(メタデータ) (2021-02-03T03:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。