論文の概要: SAFELearning: Enable Backdoor Detectability In Federated Learning With
Secure Aggregation
- arxiv url: http://arxiv.org/abs/2102.02402v1
- Date: Thu, 4 Feb 2021 04:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:11:56.072927
- Title: SAFELearning: Enable Backdoor Detectability In Federated Learning With
Secure Aggregation
- Title(参考訳): SAFELearning: 安全なアグリゲーションでフェデレーション学習のバックドア検出を可能にする
- Authors: Zhuosheng Zhang, Jiarui Li, Shucheng Yu, Christian Makaya
- Abstract要約: 本稿では,セキュアアグリゲーションのためのバックドア検出を支援するSAFELearningを提案する。
我々はこのことを2つの新しいプリミティブ、Epoblivious random grouping (ORG) と Emphpartial parameters disclosure (PPD) を通じて実現している。
- 参考スコア(独自算出の注目度): 6.391150830543613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For model privacy, local model parameters in federated learning shall be
obfuscated before sent to the remote aggregator. This technique is referred to
as \emph{secure aggregation}. However, secure aggregation makes model poisoning
attacks, e.g., to insert backdoors, more convenient given existing anomaly
detection methods mostly require access to plaintext local models. This paper
proposes SAFELearning which supports backdoor detection for secure aggregation.
We achieve this through two new primitives - \emph{oblivious random grouping
(ORG)} and \emph{partial parameter disclosure (PPD)}. ORG partitions
participants into one-time random subgroups with group configurations oblivious
to participants; PPD allows secure partial disclosure of aggregated subgroup
models for anomaly detection without leaking individual model privacy.
SAFELearning is able to significantly reduce backdoor model accuracy without
jeopardizing the main task accuracy under common backdoor strategies. Extensive
experiments show SAFELearning reduces backdoor accuracy from $100\%$ to $8.2\%$
for ResNet-18 over CIFAR-10 when $10\%$ participants are malicious.
- Abstract(参考訳): モデルプライバシに関しては,フェデレーション学習における局所モデルパラメータは,リモートアグリゲータに送信する前に難読化される。
この手法は \emph{secure aggregation} と呼ばれる。
しかし、セキュアな集約により、モデル中毒攻撃(例えばバックドアを挿入する)が、既存の異常検出方法が通常、プレーンテキストローカルモデルへのアクセスを必要とするため、より便利になる。
本稿では,安全なアグリゲーションのためのバックドア検出を支援するsafelearningを提案する。
我々はこれを2つの新しいプリミティブ、すなわち \emph{oblivious random grouping (ORG) と \emph{partial parameter disclosure (PPD) によって達成する。
PPDは、個々のモデルのプライバシーを漏洩することなく、異常検出のための集約されたサブグループのモデルの安全な部分的開示を可能にする。
SAFELearningは、一般的なバックドア戦略の下でメインタスクの精度を損なうことなく、バックドアモデルの精度を著しく低減することができる。
SAFELearning は CIFAR-10 上の ResNet-18 に対して 100\%$ から $8.2\%$ までバックドアの精度を下げます。
関連論文リスト
- Towards Robust Object Detection: Identifying and Removing Backdoors via Module Inconsistency Analysis [5.8634235309501435]
オブジェクト検出モデルに適したバックドアディフェンスフレームワークを提案する。
不整合を定量化し解析することにより、バックドアを検出するアルゴリズムを開発する。
最先端の2段階物体検出器を用いた実験により, バックドア除去率の90%向上が得られた。
論文 参考訳(メタデータ) (2024-09-24T12:58:35Z) - T2IShield: Defending Against Backdoors on Text-to-Image Diffusion Models [70.03122709795122]
バックドア攻撃の検出, 局所化, 緩和のための総合防御手法T2IShieldを提案する。
バックドアトリガーによって引き起こされた横断アテンションマップの「アシミレーション現象」を見いだす。
バックドアサンプル検出のために、T2IShieldは計算コストの低い88.9$%のF1スコアを達成している。
論文 参考訳(メタデータ) (2024-07-05T01:53:21Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Shared Adversarial Unlearning: Backdoor Mitigation by Unlearning Shared
Adversarial Examples [67.66153875643964]
バックドア攻撃は、機械学習モデルに対する深刻なセキュリティ脅威である。
本稿では,小さなクリーンデータセットを用いて,バックドアモデルの浄化作業について検討する。
バックドアリスクと敵的リスクの関連性を確立することにより、バックドアリスクに対する新たな上限を導出する。
論文 参考訳(メタデータ) (2023-07-20T03:56:04Z) - Backdoor Learning on Sequence to Sequence Models [94.23904400441957]
本稿では,シークエンス・ツー・シークエンス(seq2seq)モデルがバックドア攻撃に対して脆弱かどうかを検討する。
具体的には、データセットの0.2%のサンプルを注入するだけで、Seq2seqモデルに指定されたキーワードと文全体を生成することができる。
機械翻訳とテキスト要約に関する大規模な実験を行い、提案手法が複数のデータセットやモデルに対して90%以上の攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2023-05-03T20:31:13Z) - Mitigating Backdoors in Federated Learning with FLD [7.908496863030483]
フェデレーション学習は、クライアントがプライバシー保護のために生データをアップロードすることなく、グローバルモデルを協調的にトレーニングすることを可能にする。
この機能は最近、バックドア攻撃に直面したフェデレーション学習の脆弱性の原因となっていることが判明した。
バックドア攻撃に対して効果的に防御する新しいモデルフィルタリング手法であるフェデレート層検出(FLD)を提案する。
論文 参考訳(メタデータ) (2023-03-01T07:54:54Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - On Provable Backdoor Defense in Collaborative Learning [35.22450536986004]
悪意のあるユーザは、モデルの収束を防ぐためにデータをアップロードしたり、隠れたバックドアを注入したりできる。
標準的なテストデータではモデルが正常に動作するため、バックドア攻撃は特に検出が難しいが、特定のバックドアキーによってトリガーされた場合、間違ったアウトプットが与えられる。
既存のサブセット集約メソッドを一般化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-19T14:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。