論文の概要: Invisible Backdoor Attack Through Singular Value Decomposition
- arxiv url: http://arxiv.org/abs/2403.13018v1
- Date: Mon, 18 Mar 2024 13:25:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 21:08:57.543496
- Title: Invisible Backdoor Attack Through Singular Value Decomposition
- Title(参考訳): 特異値分解による見えないバックドア攻撃
- Authors: Wenmin Chen, Xiaowei Xu,
- Abstract要約: バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ脅威をもたらす
トリガーを知覚しにくく、知覚できないものにするため、様々な目に見えないバックドア攻撃が提案されている。
本稿では,DEBAと呼ばれる目に見えないバックドア攻撃を提案する。
- 参考スコア(独自算出の注目度): 2.681558084723648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread application of deep learning across various domains, concerns about its security have grown significantly. Among these, backdoor attacks pose a serious security threat to deep neural networks (DNNs). In recent years, backdoor attacks on neural networks have become increasingly sophisticated, aiming to compromise the security and trustworthiness of models by implanting hidden, unauthorized functionalities or triggers, leading to misleading predictions or behaviors. To make triggers less perceptible and imperceptible, various invisible backdoor attacks have been proposed. However, most of them only consider invisibility in the spatial domain, making it easy for recent defense methods to detect the generated toxic images.To address these challenges, this paper proposes an invisible backdoor attack called DEBA. DEBA leverages the mathematical properties of Singular Value Decomposition (SVD) to embed imperceptible backdoors into models during the training phase, thereby causing them to exhibit predefined malicious behavior under specific trigger conditions. Specifically, we first perform SVD on images, and then replace the minor features of trigger images with those of clean images, using them as triggers to ensure the effectiveness of the attack. As minor features are scattered throughout the entire image, the major features of clean images are preserved, making poisoned images visually indistinguishable from clean ones. Extensive experimental evaluations demonstrate that DEBA is highly effective, maintaining high perceptual quality and a high attack success rate for poisoned images. Furthermore, we assess the performance of DEBA under existing defense measures, showing that it is robust and capable of significantly evading and resisting the effects of these defense measures.
- Abstract(参考訳): さまざまなドメインでディープラーニングが広く適用されるようになると、そのセキュリティに対する懸念は大幅に高まっている。
これらのうち、バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ上の脅威をもたらす。
近年、ニューラルネットワークに対するバックドア攻撃はますます洗練され、隠れた無許可の機能やトリガーを埋め込むことによってモデルのセキュリティと信頼性を損なうことを目的としている。
トリガーを知覚しにくく、知覚できないものにするため、様々な目に見えないバックドア攻撃が提案されている。
しかし,その多くが空間領域の視認性しか考慮していないため,近年の防衛手法による有害画像の検出が容易であり,これらの課題に対処するために,DEBAと呼ばれる目に見えないバックドア攻撃を提案する。
DEBAは、Singular Value Decomposition(SVD)の数学的特性を活用して、トレーニングフェーズ中に知覚できないバックドアをモデルに埋め込むことで、特定のトリガー条件下で事前に定義された悪意のある振る舞いを示す。
具体的には、まず画像上でSVDを実行し、次に、トリガー画像のマイナーな特徴をクリーン画像の特徴に置き換え、それらをトリガーとして使用して、攻撃の有効性を保証する。
画像全体に小さな特徴が散在しているため、清潔な画像の主要な特徴が保存され、清潔な画像とは視覚的に区別できない。
広汎な実験的評価により, DEBAは高い知覚品質を維持し, 有毒画像に対する高い攻撃成功率を保ち, 極めて有効であることが示された。
さらに, 既存の防衛対策におけるDEBAの性能評価を行い, これらの防衛対策の効果を著しく回避し, 抵抗することができることを示した。
関連論文リスト
- Backdoor Attack Against Vision Transformers via Attention Gradient-Based Image Erosion [4.036142985883415]
ビジョントランスフォーマー(ViT)は、様々なコンピュータビジョンタスクで従来の畳み込みニューラルネットワーク(CNN)を上回っている。
ViTはバックドア攻撃に対して脆弱で、敵がバックドアを被害者のモデルに埋め込む。
Intention Gradient-based Erosion Backdoor (AGEB) を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:06:12Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - An Invisible Backdoor Attack Based On Semantic Feature [0.0]
過去数年間、バックドア攻撃はディープニューラルネットワーク(DNN)モデルに深刻な脅威を与えてきた。
我々は、新しいバックドア攻撃を提案し、不可避な変更を行う。
我々は3つの画像分類データセットに対する攻撃を評価した。
論文 参考訳(メタデータ) (2024-05-19T13:50:40Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - A Dual Stealthy Backdoor: From Both Spatial and Frequency Perspectives [17.024143511814245]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ脅威をもたらす
バックドアモデルは、よく設計されたトリガーが埋め込まれた入力に対して、任意の(ターゲット化された)誤った予測を行う。
本研究では,空間領域と周波数領域の両方におけるトリガの視認性を同時に考慮した,DUBAと呼ばれる2次元ステルスBAckdoor攻撃法を提案する。
論文 参考訳(メタデータ) (2023-07-03T12:28:44Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - Backdoor Attack through Frequency Domain [17.202855245008227]
本稿では,周波数領域のトロジャン化による新たなバックドア攻撃FTROJANを提案する。
鍵となる直感は、周波数領域における摂動のトリガーは、画像全体にわたって分散された小さなピクセル単位の摂動に対応することである。
いくつかのデータセットやタスクでFTROJANを評価し、良性入力の予測精度を著しく低下させることなく、高い攻撃成功率を達成することを示す。
論文 参考訳(メタデータ) (2021-11-22T05:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。