論文の概要: A temporal chrominance trigger for clean-label backdoor attack against
anti-spoof rebroadcast detection
- arxiv url: http://arxiv.org/abs/2206.01102v1
- Date: Thu, 2 Jun 2022 15:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 17:02:08.065540
- Title: A temporal chrominance trigger for clean-label backdoor attack against
anti-spoof rebroadcast detection
- Title(参考訳): クリーンラベルバックドア攻撃に対する時間的クロミナンストリガーによる反スプーフ再ブロードキャスト検出
- Authors: Wei Guo, Benedetta Tondi, Mauro Barni
- Abstract要約: 本稿では,Deep Learning(DL)ベースのモデルに対する,ステルスなクリーンラベルビデオバックドア攻撃を提案する。
注入されたバックドアは、正常な状態でのスプーフ検出には影響しないが、トリガー信号の存在下での誤分類を引き起こす。
提案したバックドア攻撃の有効性と汎用性を異なるデータセットで実験的に検証した。
- 参考スコア(独自算出の注目度): 41.735725886912185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a stealthy clean-label video backdoor attack against Deep Learning
(DL)-based models aiming at detecting a particular class of spoofing attacks,
namely video rebroadcast attacks. The injected backdoor does not affect
spoofing detection in normal conditions, but induces a misclassification in the
presence of a specific triggering signal. The proposed backdoor relies on a
temporal trigger altering the average chrominance of the video sequence. The
backdoor signal is designed by taking into account the peculiarities of the
Human Visual System (HVS) to reduce the visibility of the trigger, thus
increasing the stealthiness of the backdoor. To force the network to look at
the presence of the trigger in the challenging clean-label scenario, we choose
the poisoned samples used for the injection of the backdoor following a
so-called Outlier Poisoning Strategy (OPS). According to OPS, the triggering
signal is inserted in the training samples that the network finds more
difficult to classify. The effectiveness of the proposed backdoor attack and
its generality are validated experimentally on different datasets and
anti-spoofing rebroadcast detection architectures.
- Abstract(参考訳): 本稿では,ディープラーニング(DL)ベースのモデルに対するステルスなクリーンラベルビデオバックドアアタックを提案し,ビデオ再放送アタック(rebroadcast attack)という,特定の種類のスプーフィングアタックを検出する。
注入されたバックドアは、正常な状態におけるスプーフィング検出には影響しないが、特定のトリガー信号が存在する場合に誤分類を引き起こす。
提案したバックドアは、ビデオシーケンスの平均色調を変化させる時間的トリガーに依存している。
バックドア信号は、トリガーの視認性を低減するために人間の視覚系(hvs)の特異性を考慮して設計され、バックドアのステルス性が増大する。
難易度の高いクリーンラベルのシナリオでは,ネットワークにトリガーの存在を強制的に確認するために,いわゆるOPS(Outlier Poisoning Strategy)に従って,バックドアの注入に使用される有毒なサンプルを選択する。
opsによると、トリガ信号はトレーニングサンプルに挿入され、ネットワークの分類がより困難になる。
提案したバックドア攻撃の有効性と一般性は、異なるデータセットと反スポーフィング再ブロードキャスト検出アーキテクチャで実験的に検証される。
関連論文リスト
- Twin Trigger Generative Networks for Backdoor Attacks against Object Detection [14.578800906364414]
オブジェクト検出器は、現実世界のアプリケーションで広く使われているが、バックドア攻撃に弱い。
バックドア攻撃に関するほとんどの研究は画像分類に焦点を合わせており、物体検出について限定的な研究がなされている。
本研究では,トレーニング中のモデルにバックドアを埋め込むための目に見えないトリガと,推論中の安定したアクティベーションのための目に見えるトリガを生成する新しいツイントリガ生成ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-23T03:46:45Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - A semantic backdoor attack against Graph Convolutional Networks [0.0]
セマンティックバックドアアタックはディープニューラルネットワーク(DNN)に対する新しいタイプのバックドアアタックである
グラフ畳み込みネットワーク(GCN)に対するセマンティックバックドア攻撃を提案し,GCNにおけるこの脆弱性の存在を明らかにする。
論文 参考訳(メタデータ) (2023-02-28T07:11:55Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Adversarial Fine-tuning for Backdoor Defense: Connect Adversarial
Examples to Triggered Samples [15.57457705138278]
本稿では,バックドアトリガを除去する新たなAFT手法を提案する。
AFTは、クリーンサンプルの性能劣化を明白にすることなく、バックドアトリガを効果的に消去することができる。
論文 参考訳(メタデータ) (2022-02-13T13:41:15Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。