論文の概要: Natural Backdoor Datasets
- arxiv url: http://arxiv.org/abs/2206.10673v1
- Date: Tue, 21 Jun 2022 18:52:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 06:01:04.337469
- Title: Natural Backdoor Datasets
- Title(参考訳): 自然バックドアデータセット
- Authors: Emily Wenger, Roma Bhattacharjee, Arjun Nitin Bhagoji, Josephine
Passananti, Emilio Andere, Haitao Zheng, Ben Y. Zhao
- Abstract要約: 物理的なバックドアは、物理的物体をトリガーとして使用し、最近になって特定されたばかりであり、デジタルトリガーバックドアをターゲットとするすべての防御に対して質的に異なる。
物理バックドアの研究は、分類の対象と同一位置にある物理物体の実際の画像を含む大きなデータセットへのアクセスによって制限される。
そこで本稿では,既存のデータセットにおける潜在的なトリガのサブセットと,それらが有毒である可能性のある特定のクラスを,的確に識別する手法を提案する。
- 参考スコア(独自算出の注目度): 27.406510934213387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Extensive literature on backdoor poison attacks has studied attacks and
defenses for backdoors using "digital trigger patterns." In contrast, "physical
backdoors" use physical objects as triggers, have only recently been
identified, and are qualitatively different enough to resist all defenses
targeting digital trigger backdoors. Research on physical backdoors is limited
by access to large datasets containing real images of physical objects
co-located with targets of classification. Building these datasets is time- and
labor-intensive. This works seeks to address the challenge of accessibility for
research on physical backdoor attacks. We hypothesize that there may be
naturally occurring physically co-located objects already present in popular
datasets such as ImageNet. Once identified, a careful relabeling of these data
can transform them into training samples for physical backdoor attacks. We
propose a method to scalably identify these subsets of potential triggers in
existing datasets, along with the specific classes they can poison. We call
these naturally occurring trigger-class subsets natural backdoor datasets. Our
techniques successfully identify natural backdoors in widely-available
datasets, and produce models behaviorally equivalent to those trained on
manually curated datasets. We release our code to allow the research community
to create their own datasets for research on physical backdoor attacks.
- Abstract(参考訳): バックドア毒攻撃に関する広範な文献は、「デジタルトリガーパターン」を用いてバックドアに対する攻撃と防御を研究している。
とは対照的に、物理バックドアは物理的物体をトリガーとして使用しており、最近になって特定され、デジタルトリガーバックドアをターゲットとする全ての防御に対して質的に異なる。
物理バックドアの研究は、分類の対象と同一位置にある物理物体の実像を含む大きなデータセットへのアクセスによって制限される。
これらのデータセットの構築には時間と労力がかかる。
この研究は、物理的バックドア攻撃の研究におけるアクセシビリティの課題に対処することを目的としている。
我々は、imagenetのような一般的なデータセットにすでに存在する物理的に同じ位置にあるオブジェクトが存在するかもしれないと仮定する。
ひとたび特定されると、これらのデータの注意深くリラベル化することで、物理的なバックドア攻撃のトレーニングサンプルに変換することができる。
既存のデータセットにある潜在的なトリガのサブセットを、毒を盛ることのできる特定のクラスとともにスライス的に識別する手法を提案する。
自然発生するトリガークラスサブセットを自然バックドアデータセットと呼んでいる。
我々の技術は、広く利用可能なデータセットで自然のバックドアを識別し、手動で訓練されたデータセットでトレーニングされたものと同等の行動モデルを生成する。
私たちは、研究コミュニティが物理的なバックドア攻撃を研究するために独自のデータセットを作成できるようにコードをリリースします。
関連論文リスト
- Towards Clean-Label Backdoor Attacks in the Physical World [5.924780594614676]
本稿では,顔認証と動物分類に関する実験を通じて,新たな攻撃パラダイム,SMSbfclean-label physical backdoor attack (CLPBA)について検討する。
CLPBAは、正しい毒殺アルゴリズムと物理的トリガーで深刻な脅威になる可能性がある。
本研究は,意図しないオブジェクトやクラスが対象クラスとして誤って分類される場合に発生する,CLPBAの制限として,偶然のバックドアアクティベーションが強調される。
論文 参考訳(メタデータ) (2024-07-27T08:13:07Z) - Synthesizing Physical Backdoor Datasets: An Automated Framework Leveraging Deep Generative Models [18.538988264963645]
本稿では、バックドア研究者が悪意のある物理的バックドアデータセットを作成するためのレシピを公開する。
物理的なバックドアデータセットの作成に伴う複雑性を効果的に軽減する。
実験の結果、"レシピ"によって生成されたデータセットによって、敵が印象的な攻撃成功率を達成することができることがわかった。
論文 参考訳(メタデータ) (2023-12-06T11:05:11Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Reflection Backdoor: A Natural Backdoor Attack on Deep Neural Networks [46.99548490594115]
バックドア攻撃は、バックドアパターンをトレーニングデータのごく一部に注入することにより、バックドアを被害者モデルにインストールする。
被害者モデルにバックドアとして反射を植え付けるための反射バックドア(Refool)を提案する。
Refoolは最先端のDNNを高い成功率で攻撃することができる。
論文 参考訳(メタデータ) (2020-07-05T13:56:48Z) - Backdoor Attacks Against Deep Learning Systems in the Physical World [23.14528973663843]
実世界の様々な条件下での物理的バックドア攻撃の実現可能性について検討した。
物理的なオブジェクトが課す制約を克服するように慎重に設定されている場合、物理的なバックドア攻撃は高い成功を収める。
今日の(デジタル)バックドアに対する最先端の防御のうち4つは、物理的なバックドアに対して効果がない。
論文 参考訳(メタデータ) (2020-06-25T17:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。