論文の概要: DiffPhysBA: Diffusion-based Physical Backdoor Attack against Person Re-Identification in Real-World
- arxiv url: http://arxiv.org/abs/2405.19990v1
- Date: Thu, 30 May 2024 12:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 14:38:07.739784
- Title: DiffPhysBA: Diffusion-based Physical Backdoor Attack against Person Re-Identification in Real-World
- Title(参考訳): DiffPhysBA: 現実世界における人の再同定に対する拡散型物理バックドア攻撃
- Authors: Wenli Sun, Xinyang Jiang, Dongsheng Li, Cairong Zhao,
- Abstract要約: 個人再識別システム(ReID)は、バックドア攻撃による重大なセキュリティリスクを引き起こし、敵の追跡や不正行為を回避する。
本稿では、ReIDモデルがデジタルドメインで収集されたデータに基づいて訓練され、物理的環境に展開される実際のシナリオにおいて、バックドア攻撃がどのように展開されるかを検討する。
本稿では, トレーニング不要な類似性誘導サンプリングプロセスを採用し, 生成したトリガと物理トリガの類似性を高める新しい拡散型物理バックドアアタック(DiffPhysBA)手法を提案する。
- 参考スコア(独自算出の注目度): 37.766746270067834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person Re-Identification (ReID) systems pose a significant security risk from backdoor attacks, allowing adversaries to evade tracking or impersonate others. Beyond recognizing this issue, we investigate how backdoor attacks can be deployed in real-world scenarios, where a ReID model is typically trained on data collected in the digital domain and then deployed in a physical environment. This attack scenario requires an attack flow that embeds backdoor triggers in the digital domain realistically enough to also activate the buried backdoor in person ReID models in the physical domain. This paper realizes this attack flow by leveraging a diffusion model to generate realistic accessories on pedestrian images (e.g., bags, hats, etc.) as backdoor triggers. However, the noticeable domain gap between the triggers generated by the off-the-shelf diffusion model and their physical counterparts results in a low attack success rate. Therefore, we introduce a novel diffusion-based physical backdoor attack (DiffPhysBA) method that adopts a training-free similarity-guided sampling process to enhance the resemblance between generated and physical triggers. Consequently, DiffPhysBA can generate realistic attributes as semantic-level triggers in the digital domain and provides higher physical ASR compared to the direct paste method by 25.6% on the real-world test set. Through evaluations on newly proposed real-world and synthetic ReID test sets, DiffPhysBA demonstrates an impressive success rate exceeding 90% in both the digital and physical domains. Notably, it excels in digital stealth metrics and can effectively evade state-of-the-art defense methods.
- Abstract(参考訳): 個人再識別システム(ReID)は、バックドア攻撃による重大なセキュリティリスクを引き起こし、敵の追跡や不正行為を回避する。
この問題の認識以外にも,ReIDモデルは通常,デジタルドメインで収集されたデータに基づいてトレーニングされ,物理的環境にデプロイされる,現実世界のシナリオにおいてバックドアアタックをどのように展開するかを検討する。
この攻撃シナリオでは、物理的ドメイン内の個人ReIDモデルに埋め込まれたバックドアをアクティベートするために、バックドアトリガをリアルにデジタルドメインに埋め込む攻撃フローが必要となる。
本稿では,歩行者画像(例えば,バッグ,帽子など)のリアルなアクセサリーをバックドアトリガとして生成するために拡散モデルを活用することにより,この攻撃フローを実現する。
しかし、オフザシェルフ拡散モデルと物理的に発生するトリガー間の顕著なドメインギャップは、攻撃成功率を低くする。
そこで本研究では,トレーニング不要な類似性誘導サンプリングプロセスを採用した拡散型物理バックドアアタック(DiffPhysBA)を導入し,生成したトリガと物理トリガの類似性を高める。
その結果、DiffPhysBAはデジタルドメインのセマンティックレベルトリガとして現実的な属性を生成し、現実世界のテストセットで直接ペースト法に比べて25.6%高い物理ASRを提供する。
新たに提案された実世界および合成ReIDテストセットの評価を通じて、DiffPhysBAは、デジタルドメインと物理ドメインの両方で90%を超える顕著な成功率を示している。
特に、デジタルステルス指標に優れ、最先端の防御手法を効果的に回避することができる。
関連論文リスト
- Evolutionary Trigger Detection and Lightweight Model Repair Based Backdoor Defense [10.310546695762467]
ディープニューラルネットワーク(DNN)は、自律運転や顔認識など、多くの分野で広く利用されている。
DNNモデルのバックドアは、トリガーによる有毒な入力によってアクティベートされ、誤った予測につながる。
進化的トリガ検出と軽量モデル修復に基づく効率的なバックドア防御を提案する。
論文 参考訳(メタデータ) (2024-07-07T14:50:59Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - Synthesizing Physical Backdoor Datasets: An Automated Framework Leveraging Deep Generative Models [18.538988264963645]
本稿では、バックドア研究者が悪意のある物理的バックドアデータセットを作成するためのレシピを公開する。
物理的なバックドアデータセットの作成に伴う複雑性を効果的に軽減する。
実験の結果、"レシピ"によって生成されたデータセットによって、敵が印象的な攻撃成功率を達成することができることがわかった。
論文 参考訳(メタデータ) (2023-12-06T11:05:11Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Imperceptible Backdoor Attack: From Input Space to Feature
Representation [24.82632240825927]
バックドア攻撃はディープニューラルネットワーク(DNN)への脅威が急速に高まっている
本稿では,既存の攻撃手法の欠点を分析し,新たな非受容的バックドア攻撃を提案する。
我々のトリガーは、良性画像の1%以下のピクセルしか変更せず、大きさは1。
論文 参考訳(メタデータ) (2022-05-06T13:02:26Z) - Robust Backdoor Attacks against Deep Neural Networks in Real Physical
World [6.622414121450076]
ディープニューラルネットワーク(DNN)は様々な応用に広く利用されている。
既存のバックドアのほとんどがデジタルドメインに焦点を当てているが、実際の現実世界におけるバックドア攻撃を調査する研究はほとんどない。
本稿では,物理世界のディープラーニングモデルに対するバックドア攻撃を実装するためのロバストな物理バックドア攻撃手法ptbを提案する。
論文 参考訳(メタデータ) (2021-04-15T11:51:14Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。