論文の概要: Training-Free Color-Aware Adversarial Diffusion Sanitization for Diffusion Stegomalware Defense at Security Gateways
- arxiv url: http://arxiv.org/abs/2512.24499v1
- Date: Tue, 30 Dec 2025 22:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.504663
- Title: Training-Free Color-Aware Adversarial Diffusion Sanitization for Diffusion Stegomalware Defense at Security Gateways
- Title(参考訳): セキュリティゲートウェイにおける拡散ステゴマルウェア防御のためのトレーニングフリーカラー対応拡散衛生
- Authors: Vladimir Frants, Sos Agaian,
- Abstract要約: 秘密データから直接画像キャリアを生成するため,非被覆拡散に基づく手法の対応は困難である。
この研究は、Adrial Diffusion Sanversaitization (ADS)を導入している。これはセキュリティゲートウェイのためのトレーニング不要の防御で、それらを検出するのではなく、隠されたペイロードを中和する。
- 参考スコア(独自算出の注目度): 1.0026496861838448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid expansion of generative AI has normalized large-scale synthetic media creation, enabling new forms of covert communication. Recent generative steganography methods, particularly those based on diffusion models, can embed high-capacity payloads without fine-tuning or auxiliary decoders, creating significant challenges for detection and remediation. Coverless diffusion-based techniques are difficult to counter because they generate image carriers directly from secret data, enabling attackers to deliver stegomalware for command-and-control, payload staging, and data exfiltration while bypassing detectors that rely on cover-stego discrepancies. This work introduces Adversarial Diffusion Sanitization (ADS), a training-free defense for security gateways that neutralizes hidden payloads rather than detecting them. ADS employs an off-the-shelf pretrained denoiser as a differentiable proxy for diffusion-based decoders and incorporates a color-aware, quaternion-coupled update rule to reduce artifacts under strict distortion limits. Under a practical threat model and in evaluation against the state-of-the-art diffusion steganography method Pulsar, ADS drives decoder success rates to near zero with minimal perceptual impact. Results demonstrate that ADS provides a favorable security-utility trade-off compared to standard content transformations, offering an effective mitigation strategy against diffusion-driven steganography.
- Abstract(参考訳): 生成AIの急速な拡張は、大規模な合成メディア生成を正規化し、新しい形の隠蔽通信を可能にした。
近年のジェネレーティブ・ステガノグラフィー法、特に拡散モデルに基づく手法は、微調整や補助デコーダを使わずに高容量のペイロードを埋め込むことができ、検出と修復の重要な課題を生み出している。
シークレットデータから直接イメージキャリアを生成し、シークレット・ステゴ不一致に依存する検出器をバイパスしながら、攻撃者がコマンド・アンド・コントロール、ペイロード・ステージング、データ・エクスプロイトのためのステゴマルウェアを配信できるようにするため、カバーレス拡散ベースの技術は対処が難しい。
この研究は、セキュリティゲートウェイのためのトレーニング不要の防御であるAdversarial Diffusion Sanitization (ADS)を導入し、それらを検出するのではなく、隠されたペイロードを中和する。
ADSは、拡散ベースのデコーダの差別化可能なプロキシとして、既訓練のデノイザを採用し、厳密な歪み制限下でのアーティファクトの削減のために、カラーアウェアの四元数結合更新ルールを組み込んでいる。
実用的脅威モデルと最先端拡散ステガノグラフィー法Pulsarに対する評価において、ADSは最小限の知覚的影響でデコーダの成功率をほぼゼロに駆動する。
その結果、ADSは標準のコンテンツ変換よりも良好なセキュリティユーティリティトレードオフを提供し、拡散駆動型ステガノグラフィーに対する効果的な緩和戦略を提供することを示した。
関連論文リスト
- AdvSwap: Covert Adversarial Perturbation with High Frequency Info-swapping for Autonomous Driving Perception [14.326474757036925]
本稿では,ウェーブレットベースの高周波情報交換を創造的に活用する,新たな逆攻撃手法AdvSwapを提案する。
このスキームは、オリジナルラベルデータを効果的に除去し、ガイダンス画像データを取り込んで、隠蔽された堅牢な対向サンプルを生成する。
生成する敵のサンプルは、人間やアルゴリズムによっても知覚が難しい。
論文 参考訳(メタデータ) (2025-02-12T13:05:35Z) - CAT: Contrastive Adversarial Training for Evaluating the Robustness of Protective Perturbations in Latent Diffusion Models [15.363134355805764]
保護的摂動としての敵対的な例は、不正なデータの使用を防ぐために開発された。
本稿では,これらの保護手法に対する適応的攻撃として,コントラスト対応訓練(Contrastive Adversarial Training, CAT)を提案する。
論文 参考訳(メタデータ) (2025-02-11T03:35:35Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Struggle with Adversarial Defense? Try Diffusion [8.274506117450628]
アドリア攻撃は微妙な摂動を導入して誤分類を引き起こす。
拡散に基づく敵の訓練は、しばしば収束の課題と高い計算費用に遭遇する。
本稿では,これらの問題を克服するために,真性最大化拡散(TMDC)を提案する。
論文 参考訳(メタデータ) (2024-04-12T06:52:40Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。