論文の概要: SMTFL: Secure Model Training to Untrusted Participants in Federated Learning
- arxiv url: http://arxiv.org/abs/2502.02038v1
- Date: Tue, 04 Feb 2025 06:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:51:51.552371
- Title: SMTFL: Secure Model Training to Untrusted Participants in Federated Learning
- Title(参考訳): SMTFL:フェデレートラーニングにおける信頼できない参加者に対するセキュアモデルトレーニング
- Authors: Zhihui Zhao, Xiaorong Dong, Yimo Ren, Jianhua Wang, Dan Yu, Hongsong Zhu, Yongle Chen,
- Abstract要約: フェデレートラーニング(Federated Learning)は、分散モデルトレーニングのテクニックである。
勾配反転攻撃と中毒攻撃は、トレーニングデータのプライバシーとモデルの正しさに重大なリスクをもたらす。
我々は,信頼された参加者に頼らずに,フェデレート学習における安全なモデルトレーニングを実現するための,SMTFLと呼ばれる新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 8.225656436115509
- License:
- Abstract: Federated learning is an essential distributed model training technique. However, threats such as gradient inversion attacks and poisoning attacks pose significant risks to the privacy of training data and the model correctness. We propose a novel approach called SMTFL to achieve secure model training in federated learning without relying on trusted participants. To safeguard gradients privacy against gradient inversion attacks, clients are dynamically grouped, allowing one client's gradient to be divided to obfuscate the gradients of other clients within the group. This method incorporates checks and balances to reduce the collusion for inferring specific client data. To detect poisoning attacks from malicious clients, we assess the impact of aggregated gradients on the global model's performance, enabling effective identification and exclusion of malicious clients. Each client's gradients are encrypted and stored, with decryption collectively managed by all clients. The detected poisoning gradients are invalidated from the global model through a unlearning method. To our best knowledge, we present the first practical secure aggregation scheme, which does not require trusted participants, avoids the performance degradation associated with traditional noise-injection, and aviods complex cryptographic operations during gradient aggregation. Evaluation results are encouraging based on four datasets and two models: SMTFL is effective against poisoning attacks and gradient inversion attacks, achieving an accuracy rate of over 95% in locating malicious clients, while keeping the false positive rate for honest clients within 5%. The model accuracy is also nearly restored to its pre-attack state when SMTFL is deployed.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、分散モデルトレーニングのテクニックである。
しかし、勾配反転攻撃や中毒攻撃のような脅威は、トレーニングデータのプライバシーとモデルの正しさに重大なリスクをもたらす。
我々は,信頼された参加者に頼らずに,フェデレート学習における安全なモデルトレーニングを実現するための,SMTFLと呼ばれる新しいアプローチを提案する。
グラデーションインバージョンアタックに対するグラデーションの保護のために、クライアントは動的にグループ化され、あるクライアントのグラデーションがグループ内の他のクライアントのグラデーションを難なくするために分割される。
この方法は、特定のクライアントデータを推測する際の共謀を減らすために、チェックとバランスを組み込む。
悪意のあるクライアントからの中毒攻撃を検出するため,グローバルモデルの性能に対する集約的勾配の影響を評価し,悪意のあるクライアントの効果的な識別と排除を可能にする。
各クライアントのグラデーションは暗号化され、保存され、復号化は全クライアントによって管理される。
検出された中毒勾配は、アンラーニング法により、グローバルモデルから無効化される。
筆者らは,信頼度の高い参加者を必要とせず,従来のノイズ注入に伴う性能劣化を回避し,グラデーションアグリゲーション時の複雑な暗号操作を緩和する,最初の実用的な安全なアグリゲーション方式を提案する。
評価結果は、4つのデータセットと2つのモデルに基づいて奨励されている: SMTFLは、中毒攻撃や勾配逆転攻撃に対して有効であり、悪意のあるクライアントの特定において95%以上の精度を達成すると同時に、正直なクライアントの偽陽性率を5%以下に維持する。
また、モデル精度は、SMTFLが展開されたときの攻撃前状態にほぼ復元される。
関連論文リスト
- Gradient Purification: Defense Against Poisoning Attack in Decentralized Federated Learning [21.892850886276317]
GPDと呼ばれる勾配浄化防御は、既存のDFLアグリゲーションとシームレスに統合され、中毒攻撃から防御される。
モデルグラデーションの害を軽減することを目的としており、モデルの重み付けの利点を保ち、精度を高めることを目的としている。
様々な毒殺攻撃に対する正確性という点で、最先端の防御を著しく上回っている。
論文 参考訳(メタデータ) (2025-01-08T12:14:00Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Byzantine-Robust and Privacy-Preserving Framework for FedML [10.124385820546014]
フェデレーションラーニングは、一連のクライアントに分散されたデータからモデルを共同トレーニングするための一般的なパラダイムとして登場した。
この学習設定は、トレーニング中のクライアントデータのプライバシ保護方法と、トレーニングされたモデルの整合性を保証する方法の2つのユニークな課題を示す。
2つの課題を一つの枠組みで解決する2つのソリューションを提案します。
論文 参考訳(メタデータ) (2021-05-05T19:36:21Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。