論文の概要: SPOOF: Simple Pixel Operations for Out-of-Distribution Fooling
- arxiv url: http://arxiv.org/abs/2512.06185v1
- Date: Fri, 05 Dec 2025 22:05:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.227388
- Title: SPOOF: Simple Pixel Operations for Out-of-Distribution Fooling
- Title(参考訳): SPOOF:アウト・オブ・ディストリビューション・フーリングのためのシンプルなピクセル操作
- Authors: Ankit Gupta, Christoph Adami, Emily Dolson,
- Abstract要約: 高信頼の愚かさは最先端のネットワークでも持続する。
我々は、最小主義的で一貫性があり、より効率的なブラックボックス攻撃であるSPOOFを導入し、高信頼の虚偽画像を生成する。
- 参考スコア(独自算出の注目度): 1.7677668899907861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) excel across image recognition tasks, yet continue to exhibit overconfidence on inputs that bear no resemblance to natural images. Revisiting the "fooling images" work introduced by Nguyen et al. (2015), we re-implement both CPPN-based and direct-encoding-based evolutionary fooling attacks on modern architectures, including convolutional and transformer classifiers. Our re-implementation confirm that high-confidence fooling persists even in state-of-the-art networks, with transformer-based ViT-B/16 emerging as the most susceptible--achieving near-certain misclassifications with substantially fewer queries than convolution-based models. We then introduce SPOOF, a minimalist, consistent, and more efficient black-box attack generating high-confidence fooling images. Despite its simplicity, SPOOF generates unrecognizable fooling images with minimal pixel modifications and drastically reduced compute. Furthermore, retraining with fooling images as an additional class provides only partial resistance, as SPOOF continues to fool consistently with slightly higher query budgets--highlighting persistent fragility of modern deep classifiers.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、画像認識タスクを網羅するが、自然な画像に似ていない入力に対して過度に自信を示し続けている。
Nguyen et al (2015) が導入した「食物画像」の研究を再考し、CPPNベースと直接エンコーディングベースの進化的不正攻撃の両方を再実装し、畳み込みとトランスフォーマー分類器を含む近代的アーキテクチャを攻撃した。
我々の再実装は、コンボリューションベースのモデルよりもはるかに少ないクエリでほぼ確実な誤分類を実現するために、トランスフォーマーベースのViT-B/16が最も影響を受けやすいとして、最先端のネットワークでも高信頼の愚かさが持続することを確認した。
次に、最小主義的で一貫性があり、より効率的なブラックボックス攻撃であるSPOOFを導入し、高信頼の虚偽画像を生成する。
その単純さにもかかわらず、SPOOFは最小限のピクセル修正と大幅に少ない計算量で認識不能なばかげた画像を生成する。
さらに、画像の不正な再トレーニングを付加的なクラスとして行うと、SPOOFは少し高いクエリ予算で一貫して不正を保ち続けるため、部分的な抵抗しか生じない。
関連論文リスト
- Trans-defense: Transformer-based Denoiser for Adversarial Defense with Spatial-Frequency Domain Representation [11.290034765506816]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱であり、セキュリティクリティカルなシステムでの応用を制限する。
本稿では,攻撃に対処するための2段階の訓練手法を提案する。まず,Denoising Networkを訓練し,次に,Deep Classifierモデルを提案する。
本稿では,空間領域と周波数領域の両アプローチを統合して,画像に対する敵対的攻撃を防御する新しいデノベーション戦略を提案する。
論文 参考訳(メタデータ) (2025-10-31T07:29:50Z) - Chasing Better Deep Image Priors between Over- and Under-parameterization [63.8954152220162]
そこで本研究では,DNN固有の空間性を利用して,LIP(lottery image prior)を新たに検討する。
LIPworksは、コンパクトなモデルサイズでディープデコーダを著しく上回っている。
また、LIPを圧縮センシング画像再構成に拡張し、事前学習したGANジェネレータを前者として使用する。
論文 参考訳(メタデータ) (2024-10-31T17:49:44Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - On the unreasonable vulnerability of transformers for image restoration
-- and an easy fix [16.927916090724363]
画像修復にViTsの対向性の改善が有効か検討した。
我々は最近提案されたRestormerモデルとNAFNetと"Baseline network"について検討する。
実験は、GoProデータセットの実際の画像を用いて行われ、画像の劣化を観察する。
論文 参考訳(メタデータ) (2023-07-25T23:09:05Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - Less is More: Pay Less Attention in Vision Transformers [61.05787583247392]
注意の少ないvIsion Transformerは、畳み込み、完全接続層、自己アテンションが、画像パッチシーケンスを処理するためにほぼ同等な数学的表現を持つという事実に基づいている。
提案したLITは、画像分類、オブジェクト検出、インスタンス分割を含む画像認識タスクにおいて有望な性能を達成する。
論文 参考訳(メタデータ) (2021-05-29T05:26:07Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z) - A simple way to make neural networks robust against diverse image
corruptions [29.225922892332342]
加法ガウスノイズとスペククルノイズを用いた簡易だが適切に調整されたトレーニングが、予期せぬ汚職に対して驚くほどうまく一般化することを示す。
非相関な最悪の雑音に対する認識モデルの逆トレーニングは、さらなる性能向上につながる。
論文 参考訳(メタデータ) (2020-01-16T20:10:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。