論文の概要: MS-GAGA: Metric-Selective Guided Adversarial Generation Attack
- arxiv url: http://arxiv.org/abs/2510.12468v1
- Date: Tue, 14 Oct 2025 13:01:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.318535
- Title: MS-GAGA: Metric-Selective Guided Adversarial Generation Attack
- Title(参考訳): MS-GAGA:Metric-Selective Guided Adversarial Generation Attack
- Authors: Dion J. X. Ho, Gabriel Lee Jun Rong, Niharika Shrivastava, Harshavardhan Abichandani, Pai Chet Ng, Xiaoxiao Miao,
- Abstract要約: MS-GAGAは、伝達可能で視覚的に知覚できない敵の例を作るためのフレームワークである。
MS-GAGAは、転送可能性と非受容性を共同最適化することにより、未確認検出器の誤分類率を最大27%向上させる。
- 参考スコア(独自算出の注目度): 7.510731984578619
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MS-GAGA (Metric-Selective Guided Adversarial Generation Attack), a two-stage framework for crafting transferable and visually imperceptible adversarial examples against deepfake detectors in black-box settings. In Stage 1, a dual-stream attack module generates adversarial candidates: MNTD-PGD applies enhanced gradient calculations optimized for small perturbation budgets, while SG-PGD focuses perturbations on visually salient regions. This complementary design expands the adversarial search space and improves transferability across unseen models. In Stage 2, a metric-aware selection module evaluates candidates based on both their success against black-box models and their structural similarity (SSIM) to the original image. By jointly optimizing transferability and imperceptibility, MS-GAGA achieves up to 27% higher misclassification rates on unseen detectors compared to state-of-the-art attacks.
- Abstract(参考訳): ブラックボックス設定のディープフェイク検出器に対して、転送可能で視覚的に認識不能な2段階の逆解析を行うためのMS-GAGA(Metric-Selective Guided Adversarial Generation Attack)を提案する。
MNTD-PGDは、小さな摂動予算に最適化された拡張勾配計算を適用し、SG-PGDは視覚的に有意な領域の摂動に焦点を当てる。
この相補的な設計は、敵の探索空間を拡張し、目に見えないモデル間での転送性を向上させる。
ステージ2では、ブラックボックスモデルに対する成功と、元の画像に対する構造的類似性(SSIM)の両方に基づいて、メトリックアウェア選択モジュールが候補を評価する。
MS-GAGAは、トランスファービリティと非受容性を共同最適化することにより、最先端の攻撃と比較して、目に見えない検出器の誤分類率を最大27%向上させる。
関連論文リスト
- TESSER: Transfer-Enhancing Adversarial Attacks from Vision Transformers via Spectral and Semantic Regularization [3.693610259830098]
ディープニューラルネットワークの堅牢性を評価する上で、アドリヤルトランスファービリティは依然として重要な課題である。
textbfTESSERは、2つの主要な戦略を通じて転送可能性を高める新しい攻撃フレームワークである。
12の異なるアーキテクチャにわたるImageNetの実験では、TESSERはCNNでの攻撃成功率(ASR)が+10.9%高く、ViTでは+7.2%高かった。
論文 参考訳(メタデータ) (2025-05-26T07:30:00Z) - Self-Classification Enhancement and Correction for Weakly Supervised Object Detection [113.51483527300496]
弱い監督対象検出(WSOD)は、ラベル付けコストの低いため、多くの注目を集めている。
本稿では,この2つの問題を改善するための新しいWSODフレームワークを紹介する。
まず,2つの異なるMCCタスク間のギャップを埋めるために,クラス内バイナリ分類(ICBC)を統合した自己分類拡張モジュールを提案する。
また,2つのMCCタスクの結果を組み合わせて,誤分類予測を効果的に削減する自己分類補正アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-22T06:45:58Z) - Towards Adaptive Meta-Gradient Adversarial Examples for Visual Tracking [22.56488340107275]
視覚的トラッキングのための適応的メタ段階的対向攻撃法(AMGA)を提案する。
その結果, AMGAは攻撃性能, 転送可能性, および敵対例の誤認を著しく改善することがわかった。
論文 参考訳(メタデータ) (2025-05-13T22:26:19Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Transferable Adversarial Attacks on Vision Transformers with Token
Gradient Regularization [32.908816911260615]
ビジョントランス (ViT) は様々なコンピュータビジョンタスクにうまく展開されているが、それでも敵のサンプルには弱い。
転送ベースの攻撃は、ローカルモデルを使用して敵のサンプルを生成し、ターゲットのブラックボックスモデルを攻撃するために直接転送する。
本稿では,既存のアプローチの欠点を克服するために,Token Gradient Regularization (TGR)法を提案する。
論文 参考訳(メタデータ) (2023-03-28T06:23:17Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。