論文の概要: Latent Transfer Attack: Adversarial Examples via Generative Latent Spaces
- arxiv url: http://arxiv.org/abs/2603.06311v1
- Date: Fri, 06 Mar 2026 14:14:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.890184
- Title: Latent Transfer Attack: Adversarial Examples via Generative Latent Spaces
- Title(参考訳): 潜時移動攻撃: 生成潜時空間による逆例
- Authors: Eitan Shaar, Ariel Shaulov, Yalcin Tur, Gal Chechik, Ravid Shwartz-Ziv,
- Abstract要約: アドリアック(Adrial attack)は、現代の視覚モデルの堅牢性を探るための中心的なツールである。
ほとんどのメソッドは、$ell_infty$または$ell$制約の下でピクセル空間の摂動を直接最適化する。
我々は、事前訓練された安定拡散VAEの潜伏空間における摂動を最適化する転送ベースの攻撃である$textbfLTA$$textbfL$atent $textbfT$ransfer $textbfA$ttackを提案する。
- 参考スコア(独自算出の注目度): 36.919974069544146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks are a central tool for probing the robustness of modern vision models, yet most methods optimize perturbations directly in pixel space under $\ell_\infty$ or $\ell_2$ constraints. While effective in white-box settings, pixel-space optimization often produces high-frequency, texture-like noise that is brittle to common preprocessing (e.g., resizing and cropping) and transfers poorly across architectures. We propose $\textbf{LTA}$ ($\textbf{L}$atent $\textbf{T}$ransfer $\textbf{A}$ttack), a transfer-based attack that instead optimizes perturbations in the latent space of a pretrained Stable Diffusion VAE. Given a clean image, we encode it into a latent code and optimize the latent representation to maximize a surrogate classifier loss, while softly enforcing a pixel-space $\ell_\infty$ budget after decoding. To improve robustness to resolution mismatch and standard input pipelines, we incorporate Expectation Over Transformations (EOT) via randomized resizing, interpolation, and cropping, and apply periodic latent Gaussian smoothing to suppress emerging artifacts and stabilize optimization. Across a suite of CNN and vision-transformer targets, LTA achieves strong transfer attack success while producing spatially coherent, predominantly low-frequency perturbations that differ qualitatively from pixel-space baselines and occupy a distinct point in the transfer-quality trade-off. Our results highlight pretrained generative latent spaces as an effective and structured domain for adversarial optimization, bridging robustness evaluation with modern generative priors.
- Abstract(参考訳): 敵攻撃は現代のビジョンモデルの堅牢性を証明する中心的なツールであるが、ほとんどの手法は、$\ell_\infty$または$\ell_2$制約の下でピクセル空間の摂動を直接最適化する。
ホワイトボックス設定では有効であるが、ピクセル空間の最適化は、しばしば、一般的な前処理(例えば、リサイズとトリミング)に脆く、アーキテクチャ間での転送が不十分な、高周波でテクスチャのようなノイズを発生させる。
我々は、事前訓練された安定拡散VAEの潜伏空間における摂動を最適化する転送ベースの攻撃である$\textbf{L}$atent $\textbf{T}$ransfer $\textbf{A}$ttackを提案する。
クリーンな画像が与えられたら、それを潜在コードにエンコードし、潜在表現を最適化して代理分類器の損失を最大化し、デコード後のピクセルスペース$\ell_\infty$予算をソフトに強制する。
分解ミスマッチや標準入力パイプラインに対するロバスト性を改善するため,ランダム化リサイズ,補間,収穫による期待オーバートランスフォーメーション(EOT)を導入し,周期的潜在ガウス平滑化を適用して創発的アーティファクトの抑制と最適化を行う。
一連のCNNと視覚変換器のターゲットにおいて、LTAは、空間的コヒーレントな、主に画素空間の基底線と定性的に異なる低周波摂動を発生させ、転送品質のトレードオフにおいて異なる点を占有しながら、強い転送攻撃を成功させる。
本研究は, 逆最適化, 近代的生成前処理によるロバスト性評価のための, 有効かつ構造化された領域として, 事前学習された生成潜在空間に注目した。
関連論文リスト
- Multi-Scale Local Speculative Decoding for Image Generation [10.239314110594249]
マルチスケールローカル投機復号(MuLo-SD)を導入する。
MuLo-SDは、多重解像度のドラフトと空間情報による検証を組み合わせることで、AR画像生成を高速化する。
我々は MuLo-SD が $mathbf1.7times$ までの大幅な高速化を実現することを示した。
論文 参考訳(メタデータ) (2026-01-08T17:39:35Z) - Generative Latent Coding for Ultra-Low Bitrate Image Compression [61.71793017252801]
本稿では,生成ベクトル量子化変分自動エンコーダ(VQ-VAE)の潜時空間で変換符号化を行う生成潜時符号化アーキテクチャを提案する。
生成潜伏空間は、より空間性が高く、より豊かな意味を持ち、人間の知覚との整合性が良く、高現実性および高忠実性圧縮を達成するのに有利である。
論文 参考訳(メタデータ) (2025-12-23T09:35:40Z) - Denoising Vision Transformer Autoencoder with Spectral Self-Regularization [21.85836384863372]
本研究では,高次元潜在空間における冗長な高周波成分が拡散モデルの訓練収束を妨げていることを示す。
本稿では, スペクトル自己正則化手法を提案し, 冗長な高周波ノイズを抑制すると同時に, 復元品質を同時に維持する。
その結果、ViTベースのオートエンコーダであるDenoising-VAEは、よりクリーンで低ノイズの潜伏剤を生成し、生成品質の向上と最適化の高速化につながる。
論文 参考訳(メタデータ) (2025-11-16T15:00:32Z) - ExGS: Extreme 3D Gaussian Compression with Diffusion Priors [60.7245825868903]
エクストリーム3DGS圧縮のためのExGSとGaussPainterを紹介する。
GassPainterは、欠落した領域を埋め、可視画素を強化し、劣化したレンダリングを大幅に改善する。
私たちのフレームワークは100X圧縮(典型的な354.77MBモデルから約3.31MBまで)も達成できます。
論文 参考訳(メタデータ) (2025-09-29T13:23:06Z) - GreedyPixel: Fine-Grained Black-Box Adversarial Attack Via Greedy Algorithm [21.84393608348216]
GreedyPixelは、ディープニューラルネットワークの新しい敵攻撃フレームワークである。
これは、サロゲート由来の画素優先マップと、クエリフィードバックによって改善されたグレード、ピクセルごとの最適化を組み合わせたものだ。
以上の結果から,GreedyPixelはホワイトボックス攻撃とブラックボックス攻撃の精度ギャップを埋めることがわかった。
論文 参考訳(メタデータ) (2025-01-24T04:17:03Z) - Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks [19.917677500613788]
勾配ベースのアプローチは一般的に、プロセスの最後に摂動を生成するために$sign$関数を使用する。
そこで本研究では,S-FGRM(Saming-based Fast Gradient Rescaling Method)を提案する。
論文 参考訳(メタデータ) (2022-04-06T15:12:20Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。