論文の概要: Out-of-the-box: Black-box Causal Attacks on Object Detectors
- arxiv url: http://arxiv.org/abs/2512.03730v1
- Date: Wed, 03 Dec 2025 12:17:35 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:17:11.039601
- Title: Out-of-the-box: Black-box Causal Attacks on Object Detectors
- Title(参考訳): アウト・オブ・ザ・ボックス:オブジェクト検出器に対するブラックボックスの因果攻撃
- Authors: Melane Navaratnarajah, David A. Kelly, Hana Chockler,
- Abstract要約: 本稿では,ブラックボックスアルゴリズムであるBlackCAttについて述べる。
BlackCAttは、さまざまな大きさとアーキテクチャの異なる物体検出器で動作し、検出器をブラックボックスとして扱う。
我々のアプローチは、検出を除去する際のベースラインの2.7倍、検出を変更する際の3.86倍、新しい刺激的な検出をトリガーする際の5.75倍である。
- 参考スコア(独自算出の注目度): 4.3331379059769395
- License:
- Abstract: Adversarial perturbations are a useful way to expose vulnerabilities in object detectors. Existing perturbation methods are frequently white-box and architecture specific. More importantly, while they are often successful, it is rarely clear why they work. Insights into the mechanism of this success would allow developers to understand and analyze these attacks, as well as fine-tune the model to prevent them. This paper presents BlackCAtt, a black-box algorithm and a tool, which uses minimal, causally sufficient pixel sets to construct explainable, imperceptible, reproducible, architecture-agnostic attacks on object detectors. BlackCAtt combines causal pixels with bounding boxes produced by object detectors to create adversarial attacks that lead to the loss, modification or addition of a bounding box. BlackCAtt works across different object detectors of different sizes and architectures, treating the detector as a black box. We compare the performance of BlackCAtt with other black-box attack methods and show that identification of causal pixels leads to more precisely targeted and less perceptible attacks. On the COCO test dataset, our approach is 2.7 times better than the baseline in removing a detection, 3.86 times better in changing a detection, and 5.75 times better in triggering new, spurious, detections. The attacks generated by BlackCAtt are very close to the original image, and hence imperceptible, demonstrating the power of causal pixels.
- Abstract(参考訳): 対向摂動は、物体検出器の脆弱性を明らかにするのに有用な方法である。
既存の摂動法は、しばしばホワイトボックスとアーキテクチャ固有のものである。
さらに重要なのは、彼らはしばしば成功しているが、なぜうまくいくのかは、ほとんど明らかではないことだ。
この成功のメカニズムに対する洞察は、開発者がこれらの攻撃を理解し分析し、モデルを微調整して阻止することを可能にする。
本稿では,ブラックボックスアルゴリズムとツールであるBlackCAttについて述べる。このツールでは,最小限かつ因果的に十分な画素集合を用いて,オブジェクト検出器に対する説明可能で,再現不能で,アーキテクチャに依存しない攻撃を構築できる。
BlackCAttは、因果ピクセルとオブジェクト検出器が生成する境界ボックスを組み合わせることで、バウンディングボックスの喪失、修正、追加につながる敵攻撃を発生させる。
BlackCAttは、さまざまな大きさとアーキテクチャの異なる物体検出器にまたがって動作し、検出器をブラックボックスとして扱う。
我々は,ブラックキャットの性能を他のブラックボックス攻撃法と比較し,因果画素の識別がより正確に標的となり,認識し難い攻撃を引き起こすことを示す。
COCOテストデータセットでは、検出を除去する際のベースラインの2.7倍、検出を変更する際の3.86倍、新しい刺激的な検出をトリガーする際の5.75倍、という方法が提案されている。
BlackCAttが生成した攻撃はオリジナルの画像に非常に近いため、因果ピクセルのパワーを実証することができない。
関連論文リスト
- Superpixel Attack: Enhancing Black-box Adversarial Attack with Image-driven Division Areas [1.1417805445492082]
敵対的攻撃は、誤分類につながる可能性のある小さな摂動を特定するために使用される。
ブラックボックス攻撃に対する有望なアプローチは、特定の画像領域を抽出し、それに追加される摂動を変更する過程を繰り返すことである。
そこで本研究では,色分散とコンパクトさのバランスの良いスーパーピクセルを提案する。
論文 参考訳(メタデータ) (2025-11-29T05:28:52Z) - Amnesia as a Catalyst for Enhancing Black Box Pixel Attacks in Image Classification and Object Detection [0.0]
我々は、強化学習(RFPAR)を用いたリマイン・アンド・フォーゲット・ピクセルアタックと呼ばれる画素ベースのブラックボックスアタックを提案する。
RFPARは、一段階のRLアルゴリズムで生成された報酬を利用して乱雑なピクセルを摂動させることにより、ランダム性を軽減し、パッチ依存を避ける。
分類のためのImageNet-1Kデータセットの実験では、RFPARは最先端のクエリベースのピクセル攻撃よりも優れていた。
論文 参考訳(メタデータ) (2025-02-10T11:49:41Z) - Distortion-Aware Adversarial Attacks on Bounding Boxes of Object Detectors [1.3493547928462395]
本研究では, 物体検出装置を騙し, 最先端検出器の脆弱性を露呈する新しい手法を提案する。
本手法は, テスト段階における各クラスに対する信頼度予測に不可欠である, トレーニング中に物体の信頼度を摂動することで, 対向画像を生成することを目的とする。
提案手法を検証するために, YOLOv8, Faster R-CNN, RetinaNet, Swin Transformer などの最新の最先端モデルを含む, 異なる物体検出器に対する対向攻撃を行う。
論文 参考訳(メタデータ) (2024-12-25T07:51:57Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - DPAttack: Diffused Patch Attacks against Universal Object Detection [66.026630370248]
対象検出に対する敵対攻撃は、全画素攻撃とパッチ攻撃の2つのカテゴリに分けられる。
小惑星や格子状形状の拡散パッチを用いて物体検出装置を騙すための拡散パッチ攻撃(textbfDPAttack)を提案する。
実験の結果、我々のDPAttackは拡散パッチでほとんどの物体検出器を騙すことに成功した。
論文 参考訳(メタデータ) (2020-10-16T04:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。