論文の概要: FedCC: Robust Federated Learning against Model Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2212.01976v1
- Date: Mon, 5 Dec 2022 01:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:17:29.991001
- Title: FedCC: Robust Federated Learning against Model Poisoning Attacks
- Title(参考訳): fedcc:モデル中毒攻撃に対する堅牢な連合学習
- Authors: Hyejun Jeong, Hamin Son, Seohu Lee, Jayun Hyun, Tai-Myoung Chung
- Abstract要約: フェデレートラーニング(Federated Learning)は、プライバシー侵害に対する懸念の高まりに対処している。
ローカルデータセットに対するサーバーの盲目は、毒殺攻撃をモデル化する脆弱性を導入している。
FedCCは、Centered Kernel Alignment of Penultimate Layers Representationsを比較することで、堅牢なアグリゲーションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning has emerged to cope with raising concerns about privacy
breaches in using Machine or Deep Learning models. This new paradigm allows the
leverage of deep learning models in a distributed manner, enhancing privacy
preservation. However, the server's blindness to local datasets introduces its
vulnerability to model poisoning attacks and data heterogeneity, tampering with
the global model performance. Numerous works have proposed robust aggregation
algorithms and defensive mechanisms, but the approaches are orthogonal to
individual attacks or issues. FedCC, the proposed method, provides robust
aggregation by comparing the Centered Kernel Alignment of Penultimate Layers
Representations. The experiment results on FedCC demonstrate that it mitigates
untargeted and targeted model poisoning or backdoor attacks while also being
effective in non-Independently and Identically Distributed data environments.
By applying FedCC against untargeted attacks, global model accuracy is
recovered the most. Against targeted backdoor attacks, FedCC nullified attack
confidence while preserving the test accuracy. Most of the experiment results
outstand the baseline methods.
- Abstract(参考訳): フェデレーション学習は、機械学習やディープラーニングモデルの使用において、プライバシ侵害に関する懸念の高まりに対処するために出現した。
この新たなパラダイムは、ディープラーニングモデルを分散的に活用し、プライバシ保護を強化する。
しかし、サーバがローカルデータセットに盲目であることは、その脆弱性によって毒殺攻撃やデータ不均一性をモデル化し、グローバルモデルのパフォーマンスを損なう。
多くの研究が堅牢な集約アルゴリズムと防御機構を提案しているが、アプローチは個々の攻撃や問題に直交している。
提案手法であるFedCCは,Pultimate Layers RepresentationsのCentered Kernel Alignmentを比較することで,ロバストなアグリゲーションを提供する。
FedCCの実験結果は、標的にされていないモデル中毒やバックドア攻撃を軽減し、非独立的にかつ特定に分散したデータ環境でも有効であることを実証している。
標的外攻撃に対するFedCCの適用により,グローバルモデル精度が最も向上した。
ターゲットのバックドア攻撃に対して、fedccはテスト精度を維持しながら攻撃の信頼性を無効にした。
実験のほとんどがベースラインメソッドに逆らっている。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - BoBa: Boosting Backdoor Detection through Data Distribution Inference in Federated Learning [26.714674251814586]
フェデレーテッド・ラーニングは、その分散した性質のため、毒殺の被害を受けやすい。
本稿では,この問題を解決するために,分布認識型異常検出機構であるBoBaを提案する。
論文 参考訳(メタデータ) (2024-07-12T19:38:42Z) - Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。