論文の概要: Assist Is Just as Important as the Goal: Image Resurfacing to Aid
Model's Robust Prediction
- arxiv url: http://arxiv.org/abs/2311.01563v1
- Date: Thu, 2 Nov 2023 19:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 16:00:45.587963
- Title: Assist Is Just as Important as the Goal: Image Resurfacing to Aid
Model's Robust Prediction
- Title(参考訳): アシストは目標と同じくらい重要だ - モデルのロバストな予測を支援するイメージの復活
- Authors: Abhijith Sharma, Phil Munz, Apurva Narayan
- Abstract要約: 本稿では,画像再構成(TVR)の総合的変動に基づくパッチアタックに対するモデル非依存の防御法を提案する。
TVRは、シーン内のパッチ数に対する事前の仮定なしに、単一のイメージスキャンにおけるパッチの影響を無効にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial patches threaten visual AI models in the real world. The number
of patches in a patch attack is variable and determines the attack's potency in
a specific environment. Most existing defenses assume a single patch in the
scene, and the multiple patch scenarios are shown to overcome them. This paper
presents a model-agnostic defense against patch attacks based on total
variation for image resurfacing (TVR). The TVR is an image-cleansing method
that processes images to remove probable adversarial regions. TVR can be
utilized solely or augmented with a defended model, providing multi-level
security for robust prediction. TVR nullifies the influence of patches in a
single image scan with no prior assumption on the number of patches in the
scene. We validate TVR on the ImageNet-Patch benchmark dataset and with
real-world physical objects, demonstrating its ability to mitigate patch
attack.
- Abstract(参考訳): 敵対的パッチは、現実世界のビジュアルAIモデルを脅かす。
パッチ攻撃のパッチの数は可変であり、特定の環境における攻撃の能力を決定する。
既存の防御の多くは、シーン内で1つのパッチを想定しており、複数のパッチシナリオがそれらを克服するように示されています。
本稿では,tvr(total variation for image resurfacing)に基づくパッチ攻撃に対するモデル非依存防御について述べる。
TVRは画像のクレンジング手法で、画像を処理することで、起こりうる敵領域を除去する。
TVRは、防御されたモデルでのみ利用または拡張することができ、堅牢な予測のためのマルチレベルセキュリティを提供する。
TVRは、シーン内のパッチ数に対する事前の仮定なしに、単一のイメージスキャンにおけるパッチの影響を無効にする。
我々は、ImageNet-Patchベンチマークデータセットと現実世界の物理オブジェクトを用いてTVRを検証する。
関連論文リスト
- Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Query-Efficient Decision-based Black-Box Patch Attack [36.043297146652414]
本稿では,クエリ効率の高い決定ベースのパッチアタックに対して,DevoPatchという微分進化アルゴリズムを提案する。
DevoPatchは、パッチ領域とアタック成功率の点で、最先端のブラックボックスパッチ攻撃を上回っている。
本稿では,ViTの脆弱性評価と画像分類を,初めて決定ベースのパッチアタック設定で実施する。
論文 参考訳(メタデータ) (2023-07-02T05:15:43Z) - Suppress with a Patch: Revisiting Universal Adversarial Patch Attacks
against Object Detection [2.577744341648085]
敵のパッチベースの攻撃は、意図的に発生するノイズでニューラルネットワークを騙すことを目的としている。
本研究では,異なるパッチ生成パラメータの詳細な解析を行う。
実験では、トレーニング中にサイズが大きくなる窓にパッチを挿入すると、攻撃強度が著しく向上することが示された。
論文 参考訳(メタデータ) (2022-09-27T12:59:19Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Attacking Video Recognition Models with Bullet-Screen Comments [79.53159486470858]
本稿では,BSC攻撃による映像認識モデルに対する新たな敵攻撃を提案する。
BSCは一種の意味のあるパッチと見なすことができ、クリーンなビデオに追加しても、ビデオの内容に対する人々の理解に影響を与えたり、人々の疑念を喚起したりしない。
論文 参考訳(メタデータ) (2021-10-29T08:55:50Z) - PatchGuard++: Efficient Provable Attack Detection against Adversarial
Patches [28.94435153159868]
逆パッチは、制限領域内の画像画素を任意に操作して、モデル誤分類を誘導することができる。
最近の堅牢な防御は、通常、小さな受容フィールドを持つCNNを使用することで、パッチガードフレームワークに従います。
PatchGuardをPatchGuard++に拡張し、敵のパッチ攻撃を確実に検出し、証明可能な堅牢な精度とクリーンな精度を向上します。
論文 参考訳(メタデータ) (2021-04-26T14:22:33Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。