論文の概要: Physical Invisible Backdoor Based on Camera Imaging
- arxiv url: http://arxiv.org/abs/2309.07428v1
- Date: Thu, 14 Sep 2023 04:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 16:07:10.467739
- Title: Physical Invisible Backdoor Based on Camera Imaging
- Title(参考訳): カメライメージングによる物理的見えないバックドア
- Authors: Yusheng Guo, Nan Zhong, Zhenxing Qian, and Xinpeng Zhang
- Abstract要約: 現在のバックドア攻撃では、クリーンな画像のピクセルを変更する必要がある。
本稿では,自然画像の画素の変化を伴わずに,カメラ画像に基づく新しい物理見えないバックドアを提案する。
- 参考スコア(独自算出の注目度): 32.30547033643063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attack aims to compromise a model, which returns an adversary-wanted
output when a specific trigger pattern appears yet behaves normally for clean
inputs. Current backdoor attacks require changing pixels of clean images, which
results in poor stealthiness of attacks and increases the difficulty of the
physical implementation. This paper proposes a novel physical invisible
backdoor based on camera imaging without changing nature image pixels.
Specifically, a compromised model returns a target label for images taken by a
particular camera, while it returns correct results for other images. To
implement and evaluate the proposed backdoor, we take shots of different
objects from multi-angles using multiple smartphones to build a new dataset of
21,500 images. Conventional backdoor attacks work ineffectively with some
classical models, such as ResNet18, over the above-mentioned dataset.
Therefore, we propose a three-step training strategy to mount the backdoor
attack. First, we design and train a camera identification model with the phone
IDs to extract the camera fingerprint feature. Subsequently, we elaborate a
special network architecture, which is easily compromised by our backdoor
attack, by leveraging the attributes of the CFA interpolation algorithm and
combining it with the feature extraction block in the camera identification
model. Finally, we transfer the backdoor from the elaborated special network
architecture to the classical architecture model via teacher-student
distillation learning. Since the trigger of our method is related to the
specific phone, our attack works effectively in the physical world. Experiment
results demonstrate the feasibility of our proposed approach and robustness
against various backdoor defenses.
- Abstract(参考訳): Backdoor攻撃は、特定のトリガーパターンが現れても、クリーンな入力に対して正常に振る舞うと、逆向きの出力を返すモデルに妥協することを目的としている。
現在のバックドア攻撃では、クリーンイメージのピクセルを変更する必要があるため、攻撃のステルス性が低下し、物理的実装の難しさが増す。
本稿では,自然画像の画素を変化させることなく,カメラ撮像に基づく新しい物理不可視バックドアを提案する。
特に、侵害されたモデルは、特定のカメラが撮影した画像のターゲットラベルを返し、他の画像の正しい結果を返す。
提案するバックドアの実装と評価のために,複数のスマートフォンを用いて多角形から異なる物体の写真を撮影し,21,500画像の新しいデータセットを構築した。
従来のバックドア攻撃は、前述のデータセットに対して、ResNet18のような古典的なモデルでは効果がない。
そこで本研究では,バックドア攻撃を行うための3段階のトレーニング戦略を提案する。
まず,携帯IDを用いたカメラ識別モデルの設計と訓練を行い,カメラ指紋の特徴を抽出する。
その後, cfa補間アルゴリズムの属性を活用し, カメラ識別モデルの特徴抽出ブロックと組み合わせることで, バックドアアタックによって容易に損なわれる特殊なネットワークアーキテクチャを詳述する。
最後に,教師・生徒の蒸留学習を通じて,特殊ネットワークアーキテクチャから古典的アーキテクチャモデルへバックドアを転送する。
提案手法のトリガーは特定の携帯電話と関連しているため,物理的世界では効果的に機能する。
実験の結果,提案手法の有効性と各種バックドア防御に対するロバスト性が示された。
関連論文リスト
- Expose Before You Defend: Unifying and Enhancing Backdoor Defenses via Exposed Models [68.40324627475499]
本稿では,Expose Before You Defendという新しい2段階防衛フレームワークを紹介する。
EBYDは既存のバックドア防御手法を総合防衛システムに統合し、性能を向上する。
2つの視覚データセットと4つの言語データセットにまたがる10のイメージアタックと6つのテキストアタックに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-10-25T09:36:04Z) - Backdoor Attack with Mode Mixture Latent Modification [26.720292228686446]
本研究では,微調整の要領でバックドアを注入するために,クリーンモデルへの最小限の変更しか必要としないバックドア攻撃パラダイムを提案する。
提案手法の有効性を4つのベンチマーク・データセットで評価した。
論文 参考訳(メタデータ) (2024-03-12T09:59:34Z) - PatchBackdoor: Backdoor Attack against Deep Neural Networks without
Model Modification [0.0]
バックドア攻撃は、安全クリティカルなシナリオにおけるディープラーニングシステムに対する大きな脅威である。
本稿では,モデル変更なしにバックドア攻撃が可能であることを示す。
PatchBackdoorを現実のシナリオで実装し、攻撃がまだ脅威であることを示す。
論文 参考訳(メタデータ) (2023-08-22T23:02:06Z) - Chameleon: Adapting to Peer Images for Planting Durable Backdoors in
Federated Learning [4.420110599382241]
FLバックドアの耐久性と良性画像と有毒画像の関係について検討した。
そこで我々は,より耐久性の高いバックドアに向けて,その効果をさらに増幅するために,コントラスト学習を利用する新たな攻撃であるChameleonを提案する。
論文 参考訳(メタデータ) (2023-04-25T16:11:10Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。