論文の概要: TRAIL: Transferable Robust Adversarial Images via Latent diffusion
- arxiv url: http://arxiv.org/abs/2505.16166v1
- Date: Thu, 22 May 2025 03:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.006109
- Title: TRAIL: Transferable Robust Adversarial Images via Latent diffusion
- Title(参考訳): TRAIL:潜在拡散による移動可能なロバスト逆画像
- Authors: Yuhao Xue, Zhifei Zhang, Xinyang Jiang, Yifei Shen, Junyao Gao, Wentao Gu, Jiale Zhao, Miaojing Shi, Cairong Zhao,
- Abstract要約: 敵対的攻撃は、ディープラーニングシステムに深刻なセキュリティリスクをもたらす。
モデル間の転送性は、生成した逆数の特徴と実世界のデータの間の分布ミスマッチによって制限されている。
テスト時間適応フレームワークTRAIL(Latent Diffusion)を用いたTransferable Robust Adrial Imagesを提案する。
- 参考スコア(独自算出の注目度): 35.54430200195499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks exploiting unrestricted natural perturbations present severe security risks to deep learning systems, yet their transferability across models remains limited due to distribution mismatches between generated adversarial features and real-world data. While recent works utilize pre-trained diffusion models as adversarial priors, they still encounter challenges due to the distribution shift between the distribution of ideal adversarial samples and the natural image distribution learned by the diffusion model. To address the challenge, we propose Transferable Robust Adversarial Images via Latent Diffusion (TRAIL), a test-time adaptation framework that enables the model to generate images from a distribution of images with adversarial features and closely resembles the target images. To mitigate the distribution shift, during attacks, TRAIL updates the diffusion U-Net's weights by combining adversarial objectives (to mislead victim models) and perceptual constraints (to preserve image realism). The adapted model then generates adversarial samples through iterative noise injection and denoising guided by these objectives. Experiments demonstrate that TRAIL significantly outperforms state-of-the-art methods in cross-model attack transferability, validating that distribution-aligned adversarial feature synthesis is critical for practical black-box attacks.
- Abstract(参考訳): 制限のない自然摂動を悪用した敵攻撃は、ディープラーニングシステムに深刻なセキュリティリスクをもたらすが、それらのモデル間の転送性は、生成した敵対的特徴と実世界のデータとの分布ミスマッチのために制限されている。
近年の研究では, 事前学習した拡散モデルを逆方向の先行モデルとして用いているが, 理想的な逆方向サンプル分布と拡散モデルで学習した自然像分布との分布シフトにより, 依然として課題に直面している。
この課題に対処するため,TRAIL (Transferable Robust Adversarial Images via Latent Diffusion) を提案する。
攻撃時の分散シフトを軽減するため、TRAILは、敵対的目的(被害者モデルを誤解させる)と知覚的制約(イメージリアリズムを維持するために)を組み合わせることで、拡散U-Netの重みを更新する。
適応されたモデルは、反復的なノイズ注入と、これらの目的によって導かれる聴覚を通して、敵のサンプルを生成する。
実験により、TRAILはクロスモデル攻撃の伝達可能性において最先端の手法よりも優れており、実際のブラックボックス攻撃において、分布整列した対角的特徴合成が重要であることが検証された。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Deceptive Diffusion: Generating Synthetic Adversarial Examples [2.7309692684728617]
本稿では, 擬似拡散の概念を導入し, 生成的AIモデルを訓練し, 敵対的画像を生成する。
従来の敵攻撃アルゴリズムは、既存の画像を摂動させ、誤分類を誘発することを目的としている。
偽拡散モデルは、トレーニングやテスト画像に直接関連しない、任意の数の新しい非分類画像を生成することができる。
論文 参考訳(メタデータ) (2024-06-28T10:30:46Z) - Predicting Cascading Failures with a Hyperparametric Diffusion Model [66.89499978864741]
拡散モデルのレンズによる電力グリッドのカスケード故障について検討する。
我々のモデルは、バイラル拡散原理と物理に基づく概念を統合する。
この拡散モデルはカスケード故障の痕跡から学習可能であることを示す。
論文 参考訳(メタデータ) (2024-06-12T02:34:24Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Diffusion Models for Imperceptible and Transferable Adversarial Attack [23.991194050494396]
本稿では,拡散モデルの生成的および識別的パワーを両立させることにより,新たな非受容的かつ伝達可能な攻撃を提案する。
提案手法であるDiffAttackは,対向攻撃場に拡散モデルを導入する最初の方法である。
論文 参考訳(メタデータ) (2023-05-14T16:02:36Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。