論文の概要: FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2312.04587v1
- Date: Mon, 4 Dec 2023 21:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 14:58:27.007172
- Title: FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks
- Title(参考訳): fedbayes: 反抗的な攻撃から守るための、ゼロトラストのフェデレート学習集約
- Authors: Marc Vucovich, Devin Quinn, Kevin Choi, Christopher Redino, Abdul
Rahman, Edward Bowen
- Abstract要約: フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
- 参考スコア(独自算出の注目度): 1.689369173057502
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning has created a decentralized method to train a machine
learning model without needing direct access to client data. The main goal of a
federated learning architecture is to protect the privacy of each client while
still contributing to the training of the global model. However, the main
advantage of privacy in federated learning is also the easiest aspect to
exploit. Without being able to see the clients' data, it is difficult to
determine the quality of the data. By utilizing data poisoning methods, such as
backdoor or label-flipping attacks, or by sending manipulated information about
their data back to the server, malicious clients are able to corrupt the global
model and degrade performance across all clients within a federation. Our novel
aggregation method, FedBayes, mitigates the effect of a malicious client by
calculating the probabilities of a client's model weights given to the prior
model's weights using Bayesian statistics. Our results show that this approach
negates the effects of malicious clients and protects the overall federation.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
フェデレートされた学習アーキテクチャの主目的は、グローバルモデルのトレーニングに引き続き貢献しながら、各クライアントのプライバシを保護することである。
しかし、フェデレーション学習におけるプライバシーの主な利点は、利用しやすい側面である。
クライアントのデータを見ることができないため、データの品質を決定するのは難しい。
バックドアやラベルフリッピング攻撃などのデータ中毒手法を利用するか、あるいはデータ操作された情報をサーバに送信することで、悪意のあるクライアントはグローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
提案手法であるfeedbayesは,前モデルの重み付けに対するクライアントのモデル重みの確率をベイズ統計を用いて計算することにより,悪意のあるクライアントの効果を緩和する。
提案手法は,悪意のあるクライアントの効果を否定し,全体のフェデレーションを保護する。
関連論文リスト
- How to Forget Clients in Federated Online Learning to Rank? [34.5695601040165]
本研究では,クライアントのコントリビューションを,全体的なランキングの有効性を損なうことなく,効果的かつ効率的なアンラーニング手法について検討する。
重要な課題は、モデルが削除を要求するクライアント$c*$からのコントリビューションを指示したかどうかを測定することである。
論文 参考訳(メタデータ) (2024-01-24T12:11:41Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FedRecover: Recovering from Poisoning Attacks in Federated Learning
using Historical Information [67.8846134295194]
フェデレートラーニングは、悪意のあるクライアントが世界モデルに毒を盛る攻撃に対して脆弱である。
我々はFedRecoverを提案する。これは、クライアントに対して少量のコストで、毒殺攻撃から正確なグローバルモデルを取り戻すことができる。
論文 参考訳(メタデータ) (2022-10-20T00:12:34Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。