論文の概要: Defending Object Detectors against Patch Attacks with Out-of-Distribution Smoothing
- arxiv url: http://arxiv.org/abs/2205.08989v2
- Date: Fri, 06 Dec 2024 03:25:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:51:11.679273
- Title: Defending Object Detectors against Patch Attacks with Out-of-Distribution Smoothing
- Title(参考訳): アウト・オブ・ディストリビューション・スムースによるパッチ攻撃に対する物体検出器の防御
- Authors: Ryan Feng, Neal Mangaokar, Jihye Choi, Somesh Jha, Atul Prakash,
- Abstract要約: 本稿では,敵対パッチの除去を目的としたアプローチの特性を特徴付けるOODSmootherを紹介する。
このフレームワークは、1)既存のオブジェクト検出器に対するパッチアタックを壊す新しいアダプティブアタック、2)セマンティックプリミティブを利用する新しいディフェンスアプローチであるSemPriorを設計するのに役立つ。
SemPriorだけでは40%増、既存の防衛と組み合わせれば60%増だ。
- 参考スコア(独自算出の注目度): 21.174037250133622
- License:
- Abstract: Patch attacks against object detectors have been of recent interest due to their being physically realizable and more closely aligned with practical systems. In response to this threat, many new defenses have been proposed that train a patch segmenter model to detect and remove the patch before the image is passed to the downstream model. We unify these approaches with a flexible framework, OODSmoother, which characterizes the properties of approaches that aim to remove adversarial patches. This framework naturally guides us to design 1) a novel adaptive attack that breaks existing patch attack defenses on object detectors, and 2) a novel defense approach SemPrior that takes advantage of semantic priors. Our key insight behind SemPrior is that the existing machine learning-based patch detectors struggle to learn semantic priors and that explicitly incorporating them can improve performance. We find that SemPrior alone provides up to a 40% gain, or up to a 60% gain when combined with existing defenses.
- Abstract(参考訳): 物体検出器に対するパッチ攻撃は、物理的に実現可能であり、実用システムとより密に整合しているため、近年の関心事である。
この脅威に対して、画像が下流モデルに渡される前にパッチの検出と削除を行うパッチセグメンタモデルをトレーニングする、多くの新しいディフェンスが提案されている。
我々は、これらのアプローチをフレキシブルなフレームワークOODSmootherで統一し、敵パッチの除去を目的としたアプローチの特性を特徴付ける。
このフレームワークは私たちを自然にデザインに導く
1 対象検知器の既存パッチ攻撃防御を破る新たな適応攻撃
2)セマンティックな先入観を生かした新しい防衛手法SemPrior。
SemPriorの背後にある私たちの重要な洞察は、既存の機械学習ベースのパッチ検出器がセマンティックな事前学習に苦労していることです。
SemPriorだけでは40%増、既存の防衛と組み合わせれば60%増だ。
関連論文リスト
- VeriFlow: Modeling Distributions for Neural Network Verification [4.3012765978447565]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,流れに基づく密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - PatchUp: A Regularization Technique for Convolutional Neural Networks [19.59198017238128]
畳み込みニューラルネットワーク(CNN)のための隠れ状態ブロックレベルの正規化手法であるPatchUpを提案する。
提案手法は,MixupやCutMixといった他の最先端混合手法で発生する多様体侵入問題に対するCNNモデルのロバスト性を改善する。
また、PatchUpはサンプルのアフィン変換をより一般化し、敵攻撃に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2020-06-14T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。