論文の概要: Balancing Privacy and Security in Federated Learning with FedGT: A Group
Testing Framework
- arxiv url: http://arxiv.org/abs/2305.05506v1
- Date: Tue, 9 May 2023 14:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 19:23:42.614750
- Title: Balancing Privacy and Security in Federated Learning with FedGT: A Group
Testing Framework
- Title(参考訳): FedGTによるフェデレートラーニングにおけるプライバシとセキュリティのバランス - グループテスティングフレームワーク
- Authors: Marvin Xhemrishi, Johan \"Ostman, Antonia Wachter-Zeh, Alexandre
Graell i Amat
- Abstract要約: FedGTは、フェデレート学習における悪意のあるクライアントを安全なアグリゲーションで識別するためのフレームワークである。
FedGTは、誤検知や誤報の確率が低い悪意のあるクライアントを識別できることを示す。
- 参考スコア(独自算出の注目度): 90.61139449550383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose FedGT, a novel framework for identifying malicious clients in
federated learning with secure aggregation. Inspired by group testing, the
framework leverages overlapping groups of clients to detect the presence of
malicious clients in the groups and to identify them via a decoding operation.
The identified clients are then removed from the training of the model, which
is performed over the remaining clients. FedGT strikes a balance between
privacy and security, allowing for improved identification capabilities while
still preserving data privacy. Specifically, the server learns the aggregated
model of the clients in each group. The effectiveness of FedGT is demonstrated
through extensive experiments on the MNIST and CIFAR-10 datasets, showing its
ability to identify malicious clients with low misdetection and false alarm
probabilities, resulting in high model utility.
- Abstract(参考訳): 我々は,フェデレート学習における悪意のあるクライアントをセキュアなアグリゲーションで識別する新しいフレームワークであるFedGTを提案する。
グループテストにインスパイアされたこのフレームワークは、重複するクライアントのグループを活用して、グループ内の悪意のあるクライアントを検出し、デコード操作を通じてそれらを識別する。
識別されたクライアントは、残りのクライアント上で実行されるモデルのトレーニングから削除される。
FedGTはプライバシとセキュリティのバランスを取り、データのプライバシを保ちながら識別能力を向上する。
具体的には、サーバは各グループのクライアントの集約モデルを学習する。
FedGTの有効性は、MNISTとCIFAR-10データセットの広範な実験を通じて実証され、悪意のあるクライアントを低い誤検知と誤報確率で識別する能力を示し、結果として高モデルの有用性が示された。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - TrustFed: A Reliable Federated Learning Framework with Malicious-Attack
Resistance [8.924352407824566]
フェデレートラーニング(FL)は、個々のデータのプライバシを確保しながら、複数のクライアント間で協調的な学習を可能にする。
本稿では,階層型監査に基づくFL(HiAudit-FL)フレームワークを提案する。
シミュレーションの結果、HiAudit-FLは、システムオーバーヘッドを小さくして、潜在的悪意のあるユーザを効果的に識別し、対処できることが示されている。
論文 参考訳(メタデータ) (2023-12-06T13:56:45Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - FedDig: Robust Federated Learning Using Data Digest to Represent Absent
Clients [14.541424678317302]
フェデレートラーニング(FL)は、クライアントデータのプライバシーを効果的に保護する。
トレーニング中のクライアントの欠席や離脱は、モデルパフォーマンスを著しく低下させる可能性がある。
本稿では、生データからデータダイジェストを生成し、FLモデレーターでのトレーニングをガイドすることで、この問題に対処する。
FedDigと呼ばれる提案されたFLフレームワークは、クライアントデータのプライバシを保持しながら、クロスサイロシナリオにおける予期せぬクライアントの不在を許容する。
論文 参考訳(メタデータ) (2022-10-03T06:54:44Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。