論文の概要: TAIGen: Training-Free Adversarial Image Generation via Diffusion Models
- arxiv url: http://arxiv.org/abs/2508.15020v1
- Date: Wed, 20 Aug 2025 19:21:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.074664
- Title: TAIGen: Training-Free Adversarial Image Generation via Diffusion Models
- Title(参考訳): TAIGen:拡散モデルによる学習不要な逆画像生成
- Authors: Susim Roy, Anubhooti Jain, Mayank Vatsa, Richa Singh,
- Abstract要約: 生成モデルからのアドリアック攻撃は、しばしば低品質の画像を生成し、かなりの計算資源を必要とする。
本稿では,効率的な対向画像生成のためのトレーニング不要なブラックボックス手法であるTAIGenを紹介する。
我々は,緑と青のチャネル上でのGradCAM誘導摂動を用いて,注意マップを赤チャネルに適用する選択的なRGBチャネル戦略を開発した。
- 参考スコア(独自算出の注目度): 44.60499998155848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks from generative models often produce low-quality images and require substantial computational resources. Diffusion models, though capable of high-quality generation, typically need hundreds of sampling steps for adversarial generation. This paper introduces TAIGen, a training-free black-box method for efficient adversarial image generation. TAIGen produces adversarial examples using only 3-20 sampling steps from unconditional diffusion models. Our key finding is that perturbations injected during the mixing step interval achieve comparable attack effectiveness without processing all timesteps. We develop a selective RGB channel strategy that applies attention maps to the red channel while using GradCAM-guided perturbations on green and blue channels. This design preserves image structure while maximizing misclassification in target models. TAIGen maintains visual quality with PSNR above 30 dB across all tested datasets. On ImageNet with VGGNet as source, TAIGen achieves 70.6% success against ResNet, 80.8% against MNASNet, and 97.8% against ShuffleNet. The method generates adversarial examples 10x faster than existing diffusion-based attacks. Our method achieves the lowest robust accuracy, indicating it is the most impactful attack as the defense mechanism is least successful in purifying the images generated by TAIGen.
- Abstract(参考訳): 生成モデルからの敵攻撃は、しばしば低品質の画像を生成し、かなりの計算資源を必要とする。
拡散モデルは高品質な生成が可能なが、通常、敵生成のために数百のサンプリングステップを必要とする。
本稿では,効率的な対向画像生成のためのトレーニング不要なブラックボックス手法であるTAIGenを紹介する。
TAIGenは、無条件拡散モデルから3~20個のサンプリングステップのみを使用して、敵の例を生成する。
我々の重要な発見は、混合ステップ間隔中に注入された摂動が、全てのタイムステップを処理せずに同等の攻撃効果を達成することである。
我々は,緑と青のチャネル上でのGradCAM誘導摂動を用いて,注意マップを赤チャネルに適用する選択的なRGBチャネル戦略を開発した。
この設計は、ターゲットモデルにおける誤分類を最大化しながら、画像構造を保存する。
TAIGenは、テストされたすべてのデータセットに対して、PSNRが30dB以上であるように、視覚的品質を維持している。
ImageNetとVGGNetをソースとして、TAIGenはResNetに対して70.6%、MNASNetに対して80.8%、ShuffleNetに対して97.8%を達成している。
既存の拡散攻撃の10倍の速さで敵の例を生成する。
本手法は,TAIGen が生成した画像の浄化に最も効果が低いため,最もロバストな精度を実現している。
関連論文リスト
- Explore the vulnerability of black-box models via diffusion models [12.444628438522702]
本研究では,アタッカーが拡散モデルAPIを利用して合成画像を生成するという,新たなセキュリティ脅威を明らかにする。
これにより、攻撃者はブラックボックス分類モデルに対するモデル抽出と転送ベースの敵攻撃を実行することができる。
本手法は,クエリ予算の0.01倍しか使用せず,最先端の手法よりも平均27.37%向上していることを示す。
論文 参考訳(メタデータ) (2025-06-09T09:36:31Z) - MimicDiffusion: Purifying Adversarial Perturbation via Mimicking Clean
Diffusion Model [8.695439655048634]
拡散に基づく逆方向の浄化は、拡散モデルを用いて敵方向の攻撃に対してクリーンな画像を生成することに焦点を当てる。
そこで我々は,拡散モデルの生成過程を直接近似し,クリーンな画像を入力としてミミディフュージョン(MimicDiffusion)を提案する。
3つの画像データセットの実験により、MimicDiffusionは最先端のベースラインよりも大幅にパフォーマンスが向上していることが示された。
論文 参考訳(メタデータ) (2023-12-08T02:32:47Z) - Learning from History: Task-agnostic Model Contrastive Learning for
Image Restoration [79.04007257606862]
本稿では,対象モデル自体から負のサンプルを動的に生成する「歴史からの学習」という革新的な手法を提案する。
我々のアプローチはMCLIR(Model Contrastive Learning for Image Restoration)と呼ばれ、遅延モデルを負のモデルとして再定義し、多様な画像復元タスクと互換性を持たせる。
論文 参考訳(メタデータ) (2023-09-12T07:50:54Z) - Consistency Models [89.68380014789861]
ノイズを直接データにマッピングすることで,高品質なサンプルを生成する新しいモデル群を提案する。
設計によって高速なワンステップ生成をサポートしながら、マルチステップサンプリングによって、サンプル品質の計算を交換することができる。
イメージインペイント、カラー化、超高解像度といったゼロショットデータ編集も、明示的なトレーニングを必要とせずサポートしている。
論文 参考訳(メタデータ) (2023-03-02T18:30:16Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - A Person Re-identification Data Augmentation Method with Adversarial
Defense Effect [5.8377608127737375]
対角防御効果を有するReIDマルチモーダルデータ拡張法を提案する。
提案手法は,複数のデータセット上で良好に動作し,CVPR 2020 が提案する ReID に対する MS-SSIM 攻撃の防御に成功している。
論文 参考訳(メタデータ) (2021-01-21T12:07:57Z) - Adversarial Perturbations Prevail in the Y-Channel of the YCbCr Color
Space [43.49959098842923]
ホワイトボックス攻撃では、RGB画像上で動作する深いモデルに対して、逆方向の摂動が一般的に学習される。
本稿では, YCbCr空間のYチャネルにおいて, 対向摂動が広まることを示す。
そこで本研究では,敵画像に対する防御法を提案する。
論文 参考訳(メタデータ) (2020-02-25T02:41:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。