論文の概要: Defenses Against Multi-Sticker Physical Domain Attacks on Classifiers
- arxiv url: http://arxiv.org/abs/2101.11060v1
- Date: Tue, 26 Jan 2021 19:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 02:48:43.264313
- Title: Defenses Against Multi-Sticker Physical Domain Attacks on Classifiers
- Title(参考訳): 分類器の多段階物理ドメイン攻撃に対する防御
- Authors: Xinwei Zhao and Matthew C. Stamm
- Abstract要約: 重要な攻撃の一つは、道路標識のような物体に白黒のステッカーを置くことで分類器を騙すことができる。
この攻撃から守るために設計された防御はない。
本稿では,マルチスティック攻撃から防御できる新たな防御策を提案する。
- 参考スコア(独自算出の注目度): 24.809185168969066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, physical domain adversarial attacks have drawn significant
attention from the machine learning community. One important attack proposed by
Eykholt et al. can fool a classifier by placing black and white stickers on an
object such as a road sign. While this attack may pose a significant threat to
visual classifiers, there are currently no defenses designed to protect against
this attack. In this paper, we propose new defenses that can protect against
multi-sticker attacks. We present defensive strategies capable of operating
when the defender has full, partial, and no prior information about the attack.
By conducting extensive experiments, we show that our proposed defenses can
outperform existing defenses against physical attacks when presented with a
multi-sticker attack.
- Abstract(参考訳): 近年、物理ドメインの敵対的攻撃は機械学習コミュニティから大きな注目を集めている。
Eykholtらによって提案された1つの重要な攻撃。
道路標識などの物体に白黒のステッカーを付けて分類器を騙すことができる。
この攻撃は視覚的分類器に重大な脅威を与える可能性があるが、現在この攻撃から保護するために設計された防御策はない。
本稿では,マルチスティック攻撃から防御できる新たな防御策を提案する。
我々は、ディフェンダーが攻撃に関する完全な、部分的、および事前の情報を持っていない場合に動作できる防御戦略を提示します。
広範な実験を行うことで,提案する防御が,マルチステッカー攻撃を提示した場合の物理的攻撃に対する既存の防御を上回ることを示す。
関連論文リスト
- BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Effectiveness of Moving Target Defenses for Adversarial Attacks in
ML-based Malware Detection [0.0]
近年,敵ML攻撃に対する標的防御(MTD)の移動が提案されている。
マルウェア検出領域に適用した敵ML攻撃に対する最近のMTDの有効性を初めて検討した。
転送可能性とクエリアタック戦略は,これらの防御に対して高いレベルの回避を達成できることを示す。
論文 参考訳(メタデータ) (2023-02-01T16:03:34Z) - Game Theoretic Mixed Experts for Combinational Adversarial Machine
Learning [10.368343314144553]
我々は、敵の攻撃と防御をアンサンブルするためのゲーム理論の枠組みを提供する。
本稿では, ランダム化変換, マルチモデル投票方式, 対向検出器アーキテクチャによる防御を目標とする3つの新しい攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:35:01Z) - Defending Against Stealthy Backdoor Attacks [1.6453255188693543]
近年の研究では,ナチュラル言語処理(NLP)モデルに対する攻撃は困難ではないことが示されている。
本研究では,このような攻撃に対して有効な防衛戦略をいくつか提示する。
論文 参考訳(メタデータ) (2022-05-27T21:38:42Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Fighting Gradients with Gradients: Dynamic Defenses against Adversarial
Attacks [72.59081183040682]
我々は,防御エントロピー最小化(dent)により,テスト中にモデルと入力に適応する動的防御を提案する。
dentは、CIFAR-10/100およびImageNetに対する、敵に訓練された防御と名指しで訓練されたモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-05-18T17:55:07Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。