論文の概要: Constraining the Attack Space of Machine Learning Models with
Distribution Clamping Preprocessing
- arxiv url: http://arxiv.org/abs/2205.08989v1
- Date: Wed, 18 May 2022 15:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 12:42:02.684004
- Title: Constraining the Attack Space of Machine Learning Models with
Distribution Clamping Preprocessing
- Title(参考訳): 分散クランプ前処理による機械学習モデルの攻撃空間の制約
- Authors: Ryan Feng, Somesh Jha, Atul Prakash
- Abstract要約: 理想的なプリプロセッサ関数を任意の入力を受け取り、最も近いインディストリビューション入力に設定する関数として定式化する。
次に、パッチアタックの文脈でこの問題に対する緩和された解決策を説明します。
これらの制約により、入力の事前処理が成功し、CARLAオブジェクト検出の堅牢性が向上する。
- 参考スコア(独自算出の注目度): 27.644893449553024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Preprocessing and outlier detection techniques have both been applied to
neural networks to increase robustness with varying degrees of success. In this
paper, we formalize the ideal preprocessor function as one that would take any
input and set it to the nearest in-distribution input. In other words, we
detect any anomalous pixels and set them such that the new input is
in-distribution. We then illustrate a relaxed solution to this problem in the
context of patch attacks. Specifically, we demonstrate that we can model
constraints on the patch attack that specify regions as out of distribution.
With these constraints, we are able to preprocess inputs successfully,
increasing robustness on CARLA object detection.
- Abstract(参考訳): 前処理と外れ値検出技術はいずれもニューラルネットワークに適用され、さまざまな成功度で堅牢性を高めている。
本稿では,理想的なプリプロセッサ関数を任意の入力を受け取り,最も近い入出力に設定する関数として定式化する。
言い換えれば、任意の異常画素を検出して、新しい入力が分散しているようにセットする。
次に、パッチアタックの文脈でこの問題に対する緩和された解決策を説明します。
具体的には、分布外領域を指定するパッチアタックの制約をモデル化できることを実証する。
これらの制約により、入力の事前処理が成功し、CARLAオブジェクト検出の堅牢性が向上する。
関連論文リスト
- PAD: Patch-Agnostic Defense against Adversarial Patch Attacks [36.865204327754626]
敵パッチ攻撃は現実世界の物体検出装置に重大な脅威をもたらす。
本研究は,敵対的パッチ,意味的独立性,空間的不均一性の2つの特性を示す。
PADは,事前知識や追加訓練を必要としない,新たな逆パッチのローカライゼーションと除去手法である。
論文 参考訳(メタデータ) (2024-04-25T09:32:34Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - We Can Always Catch You: Detecting Adversarial Patched Objects WITH or
WITHOUT Signature [3.5272597442284104]
本稿では,オブジェクト検出に対する逆パッチ攻撃の検知問題について検討する。
高速シグネチャベース防御法を提案し,有効であることが実証された。
新たに生成された敵パッチは、提案されたシグネチャベースの防御を回避できる。
本稿では,内部コンテンツセマンティクスの整合性に基づく署名に依存しない新しい検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T17:58:08Z) - The Translucent Patch: A Physical and Universal Attack on Object
Detectors [48.31712758860241]
最先端の物体検出器を馬鹿にする非接触の物理パッチを提案する。
パッチの主な目標は、選択されたターゲットクラスのすべてのインスタンスを隠すことです。
我々のパッチは、すべてのストップサインインスタンスの42.27%の検出を阻止できた。
論文 参考訳(メタデータ) (2020-12-23T07:47:13Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。