論文の概要: DFB: A Data-Free, Low-Budget, and High-Efficacy Clean-Label Backdoor
Attack
- arxiv url: http://arxiv.org/abs/2308.09487v4
- Date: Wed, 17 Jan 2024 13:44:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 21:03:56.444176
- Title: DFB: A Data-Free, Low-Budget, and High-Efficacy Clean-Label Backdoor
Attack
- Title(参考訳): DFB:データフリー、低予算、高効率なクリーンラベルバックドア攻撃
- Authors: Binhao Ma, Jiahui Wang, Dejun Wang, Bo Meng
- Abstract要約: 本研究は,データフリー,低予算,高効率なクリーンラベルバックドアアタックであるDFBを紹介する。
CIFAR10、Tiny-ImageNet、TSRDで試験されたDFBは、それぞれ0.1%、0.025%、0.4%の最小中毒率で顕著な効果を示す。
- 参考スコア(独自算出の注目度): 3.6881739970725995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the domain of backdoor attacks, accurate labeling of injected data is
essential for evading rudimentary detection mechanisms. This imperative has
catalyzed the development of clean-label attacks, which are notably more
elusive as they preserve the original labels of the injected data. Current
clean-label attack methodologies primarily depend on extensive knowledge of the
training dataset. However, practically, such comprehensive dataset access is
often unattainable, given that training datasets are typically compiled from
various independent sources. Departing from conventional clean-label attack
methodologies, our research introduces DFB, a data-free, low-budget, and
high-efficacy clean-label backdoor Attack. DFB is unique in its independence
from training data access, requiring solely the knowledge of a specific target
class. Tested on CIFAR10, Tiny-ImageNet, and TSRD, DFB demonstrates remarkable
efficacy with minimal poisoning rates of just 0.1%, 0.025%, and 0.4%,
respectively. These rates are significantly lower than those required by
existing methods such as LC, HTBA, BadNets, and Blend, yet DFB achieves
superior attack success rates. Furthermore, our findings reveal that DFB poses
a formidable challenge to four established backdoor defense algorithms,
indicating its potential as a robust tool in advanced clean-label attack
strategies.
- Abstract(参考訳): バックドア攻撃の領域では、基本的な検出機構を避けるために、注入されたデータの正確なラベリングが不可欠である。
このインペラティブはクリーンラベル攻撃の発展を触媒し、注入されたデータの元のラベルを保存していることから顕著に解明されている。
現在のクリーンラベル攻撃手法は主にトレーニングデータセットの広範な知識に依存している。
しかしながら、トレーニングデータセットは通常、さまざまな独立したソースからコンパイルされるため、このような包括的なデータセットアクセスは、しばしば達成不可能である。
従来のクリーンラベル攻撃法とは別に,データフリー,低予算,高効率なクリーンラベルバックドアアタックであるDFBを導入した。
DFBはデータアクセスの訓練から独立しており、特定のターゲットクラスの知識のみを必要とする。
CIFAR10、Tiny-ImageNet、TSRDで試験されたDFBは、それぞれ0.1%、0.025%、0.4%の最小中毒率で顕著な効果を示す。
これらのレートは、LC、HTBA、BadNets、Blendといった既存の方法よりも大幅に低いが、DFBはより優れた攻撃成功率を達成する。
さらに,dfbは4つの確立されたバックドア・ディフェンス・アルゴリズムに対して強固な課題を生じさせ,先進的クリーンラベル・アタック・ストラテジーの強固なツールとしての可能性を示した。
関連論文リスト
- Hide in Plain Sight: Clean-Label Backdoor for Auditing Membership Inference [16.893873979953593]
本研究では,ステルスデータ監査のための新しいクリーンラベルバックドア方式を提案する。
我々のアプローチでは、ターゲットモデルの振る舞いを模倣するシャドウモデルによって生成される最適なトリガを用いる。
提案手法は,ブラックボックスアクセスによるロバストなデータ監査を可能にし,多様なデータセット間で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-11-24T20:56:18Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - PAD-FT: A Lightweight Defense for Backdoor Attacks via Data Purification and Fine-Tuning [4.337364406035291]
バックドア攻撃はディープニューラルネットワークに重大な脅威をもたらす。
そこで,本論文では,新たな手法であるPAD-FTを提案する。この機構は,被害者モデルに悪影響を及ぼすために,新たなクリーンデータセットやファインチューンのみを必要としない。
本機構は,複数のバックドア攻撃手法やデータセットに対して優れた効果を示す。
論文 参考訳(メタデータ) (2024-09-18T15:47:23Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Defending Against Repetitive-based Backdoor Attacks on Semi-supervised Learning through Lens of Rate-Distortion-Perception Trade-off [20.713624299599722]
半教師付き学習(SSL)は、わずかなラベル付きデータで顕著なパフォーマンスを達成した。
信頼できないデータの大規模なプールは、データ中毒に極めて脆弱であり、バックドア攻撃につながる可能性がある。
トリガーパターンとターゲットクラスの関係を阻害する新しい手法であるunlabeled Data Purification (UPure)を提案する。
論文 参考訳(メタデータ) (2024-07-14T12:42:11Z) - Progressive Poisoned Data Isolation for Training-time Backdoor Defense [23.955347169187917]
ディープニューラルネットワーク(DNN)は、悪意のある攻撃者がデータ中毒によってモデルの予測を操作するバックドア攻撃の影響を受けやすい。
本研究では, PPD (Progressive isolated of Poisoned Data) と呼ばれる, 新規かつ効果的な防御手法を提案する。
我々のPIPDは99.95%の平均真正率(TPR)を達成し、CIFAR-10データセットに対する多様な攻撃に対して平均偽正率(FPR)を0.06%とした。
論文 参考訳(メタデータ) (2023-12-20T02:40:28Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Active Learning Under Malicious Mislabeling and Poisoning Attacks [2.4660652494309936]
ディープニューラルネットワークは通常、トレーニングのために大きなラベル付きデータセットを必要とする。
これらのデータのほとんどはラベルなしであり、データ中毒攻撃に弱い。
本稿では,ラベル付きインスタンスの少ない効率的な能動的学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-01T03:43:36Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。