論文の概要: Close the Gate: Detecting Backdoored Models in Federated Learning based
on Client-Side Deep Layer Output Analysis
- arxiv url: http://arxiv.org/abs/2210.07714v1
- Date: Fri, 14 Oct 2022 11:27:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 18:13:32.705187
- Title: Close the Gate: Detecting Backdoored Models in Federated Learning based
on Client-Side Deep Layer Output Analysis
- Title(参考訳): close the gate:クライアントサイド深層出力解析に基づく連合学習におけるバックドアモデルの検出
- Authors: Phillip Rieger (1), Torsten Krau{\ss} (2), Markus Miettinen (1),
Alexandra Dmitrienko (2), Ahmad-Reza Sadeghi (1) ((1) Technical University
Darmstadt, (2) University of W\"urzburg)
- Abstract要約: Federated Learning(FL)は、ディープニューラルネットワーク(DNN)を異なるクライアントから複数のデータソースで協調的にトレーニングするスキームである。
データを共有する代わりに、各クライアントはモデルをローカルにトレーニングする。
近年、訓練されたモデルに個々のクライアントがバックドアを注入できるいわゆる標的毒殺攻撃が提案されている。
我々は、クライアントのデータを活用して、アグリゲーション前の個々のモデルを分析することで、バックドア攻撃を軽減できるモデルフィルタリングディフェンスであるtextitCrowdGuardを提案する。
- 参考スコア(独自算出の注目度): 55.41644538483948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a scheme for collaboratively training Deep Neural
Networks (DNNs) with multiple data sources from different clients. Instead of
sharing the data, each client trains the model locally, resulting in improved
privacy. However, recently so-called targeted poisoning attacks have been
proposed that allow individual clients to inject a backdoor into the trained
model. Existing defenses against these backdoor attacks either rely on
techniques like Differential Privacy to mitigate the backdoor, or analyze the
weights of the individual models and apply outlier detection methods that
restricts these defenses to certain data distributions. However, adding noise
to the models' parameters or excluding benign outliers might also reduce the
accuracy of the collaboratively trained model. Additionally, allowing the
server to inspect the clients' models creates a privacy risk due to existing
knowledge extraction methods.
We propose \textit{CrowdGuard}, a model filtering defense, that mitigates
backdoor attacks by leveraging the clients' data to analyze the individual
models before the aggregation. To prevent data leaks, the server sends the
individual models to secure enclaves, running in client-located Trusted
Execution Environments. To effectively distinguish benign and poisoned models,
even if the data of different clients are not independently and identically
distributed (non-IID), we introduce a novel metric called \textit{HLBIM} to
analyze the outputs of the DNN's hidden layers. We show that the applied
significance-based detection algorithm combined can effectively detect poisoned
models, even in non-IID scenarios.
- Abstract(参考訳): Federated Learning(FL)は、ディープニューラルネットワーク(DNN)を異なるクライアントから複数のデータソースで協調的にトレーニングするスキームである。
データを共有するのではなく、各クライアントがモデルをローカルにトレーニングすることで、プライバシが向上する。
しかし最近では、個々の顧客が訓練されたモデルにバックドアを注入できるいわゆる標的毒殺攻撃が提案されている。
これらのバックドア攻撃に対する既存の防御は、バックドアを緩和するための差分プライバシーのような技術に依存するか、個々のモデルの重みを分析し、これらの防御を特定のデータ分布に制限する外れ値検出方法を適用するかのいずれかである。
しかし、モデルのパラメータにノイズを加えるか、良性な外れ値を除くことで、協調的に訓練されたモデルの精度が低下する可能性がある。
さらに、サーバがクライアントのモデルを検査できるようにすると、既存の知識抽出方法によるプライバシーリスクが生じる。
我々は,クライアントのデータを利用してアグリゲーション前の個々のモデルを分析することで,バックドア攻撃を緩和するモデルである \textit{crowdguard}を提案する。
データ漏洩を防ぐため、サーバは個々のモデルをセキュアなエンクレーブに送信し、クライアントが配置したTrusted Execution Environmentsで動作する。
良性モデルと有毒モデルとを効果的に区別するために、異なるクライアントのデータが独立して同一に分散されていなくても(非IID)、DNNの隠蔽層の出力を分析するために「textit{HLBIM}」と呼ばれる新しい計量を導入する。
非IIDシナリオにおいても有毒なモデルの検出を効果的に行うことができることを示す。
関連論文リスト
- Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。