論文の概要: Backdoor Attacks on Federated Meta-Learning
- arxiv url: http://arxiv.org/abs/2006.07026v2
- Date: Wed, 16 Dec 2020 16:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:34:31.257823
- Title: Backdoor Attacks on Federated Meta-Learning
- Title(参考訳): フェデレーションメタラーニングのバックドア攻撃
- Authors: Chien-Lun Chen, Leana Golubchik, Marco Paolieri
- Abstract要約: 我々は,バックドア攻撃によるメタラーニングの効果を分析した。
本稿では,その特徴の類似性から入力のクラスが予測されるネットワークに触発された防御機構を提案する。
- 参考スコア(独自算出の注目度): 0.225596179391365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows multiple users to collaboratively train a shared
classification model while preserving data privacy. This approach, where model
updates are aggregated by a central server, was shown to be vulnerable to
poisoning backdoor attacks: a malicious user can alter the shared model to
arbitrarily classify specific inputs from a given class. In this paper, we
analyze the effects of backdoor attacks on federated meta-learning, where users
train a model that can be adapted to different sets of output classes using
only a few examples. While the ability to adapt could, in principle, make
federated learning frameworks more robust to backdoor attacks (when new
training examples are benign), we find that even 1-shot~attacks can be very
successful and persist after additional training. To address these
vulnerabilities, we propose a defense mechanism inspired by matching networks,
where the class of an input is predicted from the similarity of its features
with a support set of labeled examples. By removing the decision logic from the
model shared with the federation, success and persistence of backdoor attacks
are greatly reduced.
- Abstract(参考訳): フェデレーション学習は、複数のユーザがデータのプライバシを保持しながら、共有分類モデルを共同でトレーニングすることを可能にする。
モデル更新が中央サーバによって集約されるこのアプローチは、不正なバックドア攻撃に対して脆弱であることが示されている。 悪意のあるユーザは、特定の入力を所定のクラスから任意に分類するために、共有モデルを変更することができる。
本稿では,異なる出力クラスに適応可能なモデルを学習する,フェデレートされたメタラーニングに対するバックドア攻撃の効果を,ごく少数の例を用いて分析する。
適応能力は、原則として、連合学習フレームワークをバックドア攻撃(新しいトレーニング例が良ければ)に対してより強固なものにすることができるが、それでも1ショット攻撃でさえ、追加のトレーニングの後に非常に成功し、持続することができる。
これらの脆弱性に対処するために,ネットワークの整合性に着想を得た防御機構を提案し,その特徴の類似性から入力のクラスをラベル付き例の支持セットで予測する。
フェデレーションと共有するモデルから決定ロジックを取り除くことにより、バックドア攻撃の成功と持続性が大幅に低下する。
関連論文リスト
- Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Protect Federated Learning Against Backdoor Attacks via Data-Free
Trigger Generation [25.072791779134]
Federated Learning (FL)は、大規模クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
信頼できないクライアントのデータ監査が欠如しているため、FLは特にバックドアアタックに対する攻撃に対して脆弱である。
バックドア攻撃の2つの特徴に基づく,データフリーなトリガジェネレーションに基づく防衛手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T10:16:12Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - CleanCLIP: Mitigating Data Poisoning Attacks in Multimodal Contrastive
Learning [63.72975421109622]
CleanCLIPは、バックドア攻撃によって引き起こされる学習された刺激的関連を弱める微調整フレームワークである。
CleanCLIPは、マルチモーダル・コントラッシブ・ラーニングに対するバックドア・アタックを根絶しながら、良質な例によるモデル性能を維持している。
論文 参考訳(メタデータ) (2023-03-06T17:48:32Z) - On Feasibility of Server-side Backdoor Attacks on Split Learning [5.559334420715782]
Split Learningは、複数の参加者(クライアント)がデータセットをプライベートに保ちながら、共有モデルのトレーニングを可能にする、共同学習設計である。
近年の研究では、協調学習モデルは、モデル推論やバックドア攻撃のようなセキュリティやプライバシ攻撃に弱いことが示されている。
本稿では,分割学習に対する新たなバックドア攻撃を行い,その有効性について検討する。
論文 参考訳(メタデータ) (2023-02-19T14:06:08Z) - On the Vulnerability of Backdoor Defenses for Federated Learning [8.345632941376673]
Federated Learning(FL)は、クライアントのデータを共有することなく、グローバルモデルの共同トレーニングを可能にする、人気のある分散機械学習パラダイムである。
本稿では,現在の防衛機構が,フェデレートラーニングによるバックドアの脅威を真に中和するかどうかを考察する。
本稿では,新たなバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-01-19T17:02:02Z) - Marksman Backdoor: Backdoor Attacks with Arbitrary Target Class [17.391987602738606]
近年、機械学習モデルはバックドア攻撃に弱いことが示されている。
この論文は、マークスマン(Marksman)と呼ばれるより強力なペイロードを持つ、新しいバックドア攻撃を利用する。
提案するフレームワークは,複数のベンチマークデータセットにおいてクリーンデータ性能を維持しつつ,高い攻撃性能を実現することを実証的に示す。
論文 参考訳(メタデータ) (2022-10-17T15:46:57Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。