論文の概要: Backdoor attacks and defenses in feature-partitioned collaborative
learning
- arxiv url: http://arxiv.org/abs/2007.03608v1
- Date: Tue, 7 Jul 2020 16:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:57:27.951197
- Title: Backdoor attacks and defenses in feature-partitioned collaborative
learning
- Title(参考訳): 特徴分断協調学習におけるバックドア攻撃と防御
- Authors: Yang Liu, Zhihao Yi, Tianjian Chen
- Abstract要約: ラベルにアクセスできない者でさえ、バックドア攻撃をうまく注入できることを示す。
これは、機能分割型協調学習フレームワークにおけるバックドアアタックに対処する最初の体系的研究である。
- 参考スコア(独自算出の注目度): 11.162867684516995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since there are multiple parties in collaborative learning, malicious parties
might manipulate the learning process for their own purposes through backdoor
attacks. However, most of existing works only consider the federated learning
scenario where data are partitioned by samples. The feature-partitioned
learning can be another important scenario since in many real world
applications, features are often distributed across different parties. Attacks
and defenses in such scenario are especially challenging when the attackers
have no labels and the defenders are not able to access the data and model
parameters of other participants. In this paper, we show that even parties with
no access to labels can successfully inject backdoor attacks, achieving high
accuracy on both main and backdoor tasks. Next, we introduce several defense
techniques, demonstrating that the backdoor can be successfully blocked by a
combination of these techniques without hurting main task accuracy. To the best
of our knowledge, this is the first systematical study to deal with backdoor
attacks in the feature-partitioned collaborative learning framework.
- Abstract(参考訳): 協調学習には複数のパーティがあるため、悪意のあるパーティはバックドア攻撃を通じて学習プロセスを操作することができる。
しかしながら、既存の作業のほとんどは、データがサンプルによって分割されるフェデレーション学習シナリオのみを考慮しています。
多くの現実世界のアプリケーションでは、機能はしばしば異なるパーティに分散するため、機能分割学習は重要なシナリオになり得る。
このようなシナリオにおける攻撃と防御は、攻撃者がラベルがなく、防御者が他の参加者のデータやモデルパラメータにアクセスできない場合、特に難しい。
本稿では,ラベルにアクセスできない者でもバックドア攻撃を効果的に注入でき,メイン・バックドアともに高い精度が得られることを示す。
次に,これらの手法を組み合わせることで,メインタスクの精度を損なうことなく,バックドアをブロックできることを実証する。
私たちの知る限りでは、この機能を分割した協調学習フレームワークにおいて、バックドア攻撃に対処する最初の体系的な研究である。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - On Feasibility of Server-side Backdoor Attacks on Split Learning [5.559334420715782]
Split Learningは、複数の参加者(クライアント)がデータセットをプライベートに保ちながら、共有モデルのトレーニングを可能にする、共同学習設計である。
近年の研究では、協調学習モデルは、モデル推論やバックドア攻撃のようなセキュリティやプライバシ攻撃に弱いことが示されている。
本稿では,分割学習に対する新たなバックドア攻撃を行い,その有効性について検討する。
論文 参考訳(メタデータ) (2023-02-19T14:06:08Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - Widen The Backdoor To Let More Attackers In [24.540853975732922]
マルチエージェントバックドア攻撃のシナリオについて検討し、複数の非衝突攻撃者が共有データセットにトリガサンプルを挿入する。
攻撃者数の増加は攻撃者の攻撃成功率を減少させる。
そして、この現象を利用して攻撃者の集合的ASRを最小化し、防御者の堅牢性を最大化する。
論文 参考訳(メタデータ) (2021-10-09T13:53:57Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Excess Capacity and Backdoor Poisoning [11.383869751239166]
バックドアデータ中毒攻撃は、攻撃者がいくつかの透かし、ラベルのついたトレーニング例をトレーニングセットに注入する敵攻撃である。
本稿では,分類問題に対するバックドアデータ中毒攻撃を議論できる形式的理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-02T03:04:38Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。