論文の概要: Synthesizing Physical Backdoor Datasets: An Automated Framework Leveraging Deep Generative Models
- arxiv url: http://arxiv.org/abs/2312.03419v2
- Date: Fri, 15 Mar 2024 12:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 12:56:06.483523
- Title: Synthesizing Physical Backdoor Datasets: An Automated Framework Leveraging Deep Generative Models
- Title(参考訳): 物理バックドアデータセットの合成 - 深層生成モデルを活用する自動化フレームワーク
- Authors: Sze Jue Yang, Chinh D. La, Quang H. Nguyen, Eugene Bagdasaryan, Kok-Seng Wong, Anh Tuan Tran, Chee Seng Chan, Khoa D. Doan,
- Abstract要約: 本稿では、バックドア研究者が悪意のある物理的バックドアデータセットを作成するためのレシピを公開する。
物理的なバックドアデータセットの作成に伴う複雑性を効果的に軽減する。
実験の結果、"レシピ"によって生成されたデータセットによって、敵が印象的な攻撃成功率を達成することができることがわかった。
- 参考スコア(独自算出の注目度): 20.26317914218098
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Backdoor attacks, representing an emerging threat to the integrity of deep neural networks, have garnered significant attention due to their ability to compromise deep learning systems clandestinely. While numerous backdoor attacks occur within the digital realm, their practical implementation in real-world prediction systems remains limited and vulnerable to disturbances in the physical world. Consequently, this limitation has given rise to the development of physical backdoor attacks, where trigger objects manifest as physical entities within the real world. However, creating the requisite dataset to train or evaluate a physical backdoor model is a daunting task, limiting the backdoor researchers and practitioners from studying such physical attack scenarios. This paper unleashes a recipe that empowers backdoor researchers to effortlessly create a malicious, physical backdoor dataset based on advances in generative modeling. Particularly, this recipe involves 3 automatic modules: suggesting the suitable physical triggers, generating the poisoned candidate samples (either by synthesizing new samples or editing existing clean samples), and finally refining for the most plausible ones. As such, it effectively mitigates the perceived complexity associated with creating a physical backdoor dataset, transforming it from a daunting task into an attainable objective. Extensive experiment results show that datasets created by our "recipe" enable adversaries to achieve an impressive attack success rate on real physical world data and exhibit similar properties compared to previous physical backdoor attack studies. This paper offers researchers a valuable toolkit for studies of physical backdoors, all within the confines of their laboratories.
- Abstract(参考訳): 深層ニューラルネットワークの完全性に対する新たな脅威であるバックドア攻撃は、ディープラーニングシステムを秘密裏に妥協する能力のために、大きな注目を集めている。
多くのバックドア攻撃がデジタル空間内で発生しているが、現実の予測システムにおける実践的実装は、物理世界の混乱に対して制限され、脆弱である。
その結果、この制限により物理的なバックドア攻撃が生まれ、現実世界の物理的実体として現れるトリガーオブジェクトが出現した。
しかし、物理的なバックドアモデルをトレーニングしたり評価したりするために必要なデータセットを作成することは、バックドアの研究者や実践者がそのような物理的な攻撃シナリオを研究するのを制限している、大変な作業である。
本稿では, バックドア研究者が, 生成モデリングの進歩に基づいて, 悪意ある物理的バックドアデータセットを作成できるようにするためのレシピを公開する。
特に、このレシピには3つの自動的なモジュールが含まれる: 適切な物理的トリガーを提案し、毒化された候補サンプルを生成する(新しいサンプルを合成したり、既存のクリーンサンプルを編集することで)。
そのため、物理的なバックドアデータセットを作成することで認識される複雑さを効果的に軽減し、途方もないタスクから達成可能な目標へと変換する。
大規模な実験結果から、我々の「レシピ」によって作成されたデータセットは、実際の物理世界データに対して、敵が印象的な攻撃成功率を達成し、以前の物理バックドアアタック研究と同じような特性を示すことを示唆している。
本稿では,物理バックドアの研究に有用なツールキットを研究者に提供する。
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Mellivora Capensis: A Backdoor-Free Training Framework on the Poisoned Dataset without Auxiliary Data [29.842087372804905]
本稿では,現実シナリオにおけるバックドア攻撃対策の課題について述べる。
本稿では,モデルトレーナーが有毒なデータセット上でクリーンなモデルをトレーニングできるようにする,堅牢でクリーンなデータのないバックドア防御フレームワークであるMellivora Capensis(textttMeCa)を提案する。
論文 参考訳(メタデータ) (2024-05-21T12:20:19Z) - Setting the Trap: Capturing and Defeating Backdoors in Pretrained
Language Models through Honeypots [68.84056762301329]
近年の研究では、バックドア攻撃に対するプレトレーニング言語モデル(PLM)の感受性が明らかにされている。
バックドア情報のみを吸収するために,ハニーポットモジュールをオリジナルのPLMに統合する。
我々の設計は、PLMの低層表現が十分なバックドア特徴を持っているという観察に動機づけられている。
論文 参考訳(メタデータ) (2023-10-28T08:21:16Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Natural Backdoor Datasets [27.406510934213387]
物理的なバックドアは、物理的物体をトリガーとして使用し、最近になって特定されたばかりであり、デジタルトリガーバックドアをターゲットとするすべての防御に対して質的に異なる。
物理バックドアの研究は、分類の対象と同一位置にある物理物体の実際の画像を含む大きなデータセットへのアクセスによって制限される。
そこで本稿では,既存のデータセットにおける潜在的なトリガのサブセットと,それらが有毒である可能性のある特定のクラスを,的確に識別する手法を提案する。
論文 参考訳(メタデータ) (2022-06-21T18:52:25Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Robust Backdoor Attacks against Deep Neural Networks in Real Physical
World [6.622414121450076]
ディープニューラルネットワーク(DNN)は様々な応用に広く利用されている。
既存のバックドアのほとんどがデジタルドメインに焦点を当てているが、実際の現実世界におけるバックドア攻撃を調査する研究はほとんどない。
本稿では,物理世界のディープラーニングモデルに対するバックドア攻撃を実装するためのロバストな物理バックドア攻撃手法ptbを提案する。
論文 参考訳(メタデータ) (2021-04-15T11:51:14Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Backdoor Attacks Against Deep Learning Systems in the Physical World [23.14528973663843]
実世界の様々な条件下での物理的バックドア攻撃の実現可能性について検討した。
物理的なオブジェクトが課す制約を克服するように慎重に設定されている場合、物理的なバックドア攻撃は高い成功を収める。
今日の(デジタル)バックドアに対する最先端の防御のうち4つは、物理的なバックドアに対して効果がない。
論文 参考訳(メタデータ) (2020-06-25T17:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。