論文の概要: Amnesia as a Catalyst for Enhancing Black Box Pixel Attacks in Image Classification and Object Detection
- arxiv url: http://arxiv.org/abs/2502.07821v1
- Date: Mon, 10 Feb 2025 11:49:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:50:02.286126
- Title: Amnesia as a Catalyst for Enhancing Black Box Pixel Attacks in Image Classification and Object Detection
- Title(参考訳): 画像分類と物体検出におけるブラックボックス・ピクセル・アタックの促進のための触媒としてのアムネシア
- Authors: Dongsu Song, Daehwa Ko, Jay Hoon Jung,
- Abstract要約: 我々は、強化学習(RFPAR)を用いたリマイン・アンド・フォーゲット・ピクセルアタックと呼ばれる画素ベースのブラックボックスアタックを提案する。
RFPARは、一段階のRLアルゴリズムで生成された報酬を利用して乱雑なピクセルを摂動させることにより、ランダム性を軽減し、パッチ依存を避ける。
分類のためのImageNet-1Kデータセットの実験では、RFPARは最先端のクエリベースのピクセル攻撃よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: It is well known that query-based attacks tend to have relatively higher success rates in adversarial black-box attacks. While research on black-box attacks is actively being conducted, relatively few studies have focused on pixel attacks that target only a limited number of pixels. In image classification, query-based pixel attacks often rely on patches, which heavily depend on randomness and neglect the fact that scattered pixels are more suitable for adversarial attacks. Moreover, to the best of our knowledge, query-based pixel attacks have not been explored in the field of object detection. To address these issues, we propose a novel pixel-based black-box attack called Remember and Forget Pixel Attack using Reinforcement Learning(RFPAR), consisting of two main components: the Remember and Forget processes. RFPAR mitigates randomness and avoids patch dependency by leveraging rewards generated through a one-step RL algorithm to perturb pixels. RFPAR effectively creates perturbed images that minimize the confidence scores while adhering to limited pixel constraints. Furthermore, we advance our proposed attack beyond image classification to object detection, where RFPAR reduces the confidence scores of detected objects to avoid detection. Experiments on the ImageNet-1K dataset for classification show that RFPAR outperformed state-of-the-art query-based pixel attacks. For object detection, using the MSCOCO dataset with YOLOv8 and DDQ, RFPAR demonstrates comparable mAP reduction to state-of-the-art query-based attack while requiring fewer query. Further experiments on the Argoverse dataset using YOLOv8 confirm that RFPAR effectively removed objects on a larger scale dataset. Our code is available at https://github.com/KAU-QuantumAILab/RFPAR.
- Abstract(参考訳): クエリベースの攻撃は、敵のブラックボックス攻撃において比較的高い成功率を持つ傾向があることはよく知られている。
ブラックボックス攻撃の研究は活発に行われているが、限られたピクセル数しか対象としないピクセル攻撃に焦点を当てた研究は比較的少ない。
画像分類において、クエリベースのピクセル攻撃は多くの場合、ランダム性に大きく依存するパッチに依存し、散在するピクセルが敵攻撃に適しているという事実を無視する。
さらに、我々の知る限り、オブジェクト検出の分野では、クエリベースのピクセル攻撃は検討されていない。
これらの問題に対処するために,Reser and Forget Pixel Attack using Reinforcement Learning (RFPAR) という,新しいピクセルベースのブラックボックス攻撃を提案する。
RFPARはランダム性を軽減し、ワンステップRLアルゴリズムで生成された報酬を利用してピクセルを摂動させることにより、パッチ依存を回避する。
RFPARは、限られた画素制約に固執しながら、信頼度を最小化する摂動画像を効果的に生成する。
RFPARは検出対象の信頼度を低減し,検出を回避する。
分類のためのImageNet-1Kデータセットの実験では、RFPARは最先端のクエリベースのピクセル攻撃よりも優れていた。
オブジェクト検出では、YOLOv8とDDQを備えたMSCOCOデータセットを使用して、RFPARはクエリを少なくしながら、最先端のクエリベースのアタックに匹敵するmAPを削減している。
YOLOv8を使用したArgoverseデータセットに関するさらなる実験では、RFPARが大規模データセット上のオブジェクトを効果的に除去することが確認された。
私たちのコードはhttps://github.com/KAU-QuantumAILab/RFPARで公開されています。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - DISCO: Adversarial Defense with Local Implicit Functions [79.39156814887133]
aDversarIal defenSe with local impliCit functiOns が提案され、局所多様体射影による対角摂動を除去する。
DISCOは、逆画像とクエリピクセル位置を消費し、その位置でクリーンなRGB値を出力する。
論文 参考訳(メタデータ) (2022-12-11T23:54:26Z) - LP-BFGS attack: An adversarial attack based on the Hessian with limited
pixels [44.841339443764696]
本研究では, 摂動画素数に制限のあるHessianに基づく攻撃手法の攻撃性能と計算コストについて検討する。
具体的には、摂動画素選択戦略とBFGSアルゴリズムを組み合わせることで、LP-BFGS攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-26T03:16:20Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - Geometrically Adaptive Dictionary Attack on Face Recognition [23.712389625037442]
顔認証に対するクエリ効率の良いブラックボックス攻撃のための戦略を提案する。
中心となるアイデアは、UVテクスチャマップに逆方向の摂動を作り、それを画像の顔に投影することです。
LFWデータセットとCPLFWデータセットの実験において、圧倒的な性能改善を示す。
論文 参考訳(メタデータ) (2021-11-08T10:26:28Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - Generating Black-Box Adversarial Examples in Sparse Domain [2.879036956042183]
ブラックボックスの敵対攻撃は、攻撃者がモデルやトレーニングデータセットに関する知識を持っていない攻撃の一種です。
画像の最も重要な情報が観察できる一方で,スパース領域においてブラックボックス攻撃を発生させる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-22T20:45:33Z) - Defense-friendly Images in Adversarial Attacks: Dataset and Metrics for
Perturbation Difficulty [28.79528737626505]
データセットバイアスは、敵機械学習、特に防衛評価における問題である。
本稿では,攻撃に対する耐性と,敵攻撃時のランダム画像よりも良好な回復性を有する頑健な画像群を初めて報告する。
本稿では,データセット内のロバストな画像の割合を決定するための3つの指標を提案し,データセットのバイアスを決定するためのスコアを提供する。
論文 参考訳(メタデータ) (2020-11-05T06:21:24Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。