論文の概要: Towards Imperceptible JPEG Image Hiding: Multi-range Representations-driven Adversarial Stego Generation
- arxiv url: http://arxiv.org/abs/2507.08343v1
- Date: Fri, 11 Jul 2025 06:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.263406
- Title: Towards Imperceptible JPEG Image Hiding: Multi-range Representations-driven Adversarial Stego Generation
- Title(参考訳): JPEG画像の認識不能化に向けて:マルチレンジ表現駆動型対角ステレオ生成
- Authors: Junxue Yang, Xin Liao, Weixuan Tang, Jianhua Yang, Zheng Qin,
- Abstract要約: 我々は、色付きJPEG画像の深い隠蔽に、世代ベースの敵攻撃を導入する。
本稿ではMRAGと呼ばれるマルチレンジ表現駆動型逆スチーゴ生成フレームワークを提案する。
MRAGは最先端のパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 19.5984577708016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep hiding has been exploring the hiding capability of deep learning-based models, aiming to conceal image-level messages into cover images and reveal them from generated stego images. Existing schemes are easily detected by steganalyzers due to their large payloads and their limitation to feature extraction based solely on either pure convolution or pure transformer operators within a single range, as well as pixel-level loss constraints. To address the issue, in this paper, we introduce generation-based adversarial attacks into color JPEG image deep hiding and propose a multi-range representations-driven adversarial stego generation framework called MRAG from a steganalysis perspective. Specifically, we integrate the local-range neighbor reception characteristic of the convolution and the global-range dependency modeling of the transformer to construct MRAG. Meanwhile, we use the transformed images obtained through coarse-grained and fine-grained frequency decomposition as inputs, introducing multi-grained information. Furthermore, a features angle-norm disentanglement loss is designed to constrain the generated stegos closer to covers in the angle and norm space of the steganalyzer's classified features. Consequently, small yet effective adversarial perturbations can be injected into the process of generating stegos, ensuring that stegos maintain favorable secret restorability and imperceptibility. Extensive experiments demonstrate that MRAG can achieve state-of-the-art performance.
- Abstract(参考訳): 深い隠蔽は、画像レベルのメッセージを隠蔽し、生成されたステゴ画像からそれらを明らかにすることを目的として、ディープラーニングベースのモデルの隠蔽能力を模索してきた。
既存のスキームは、大きなペイロードと、純粋な畳み込み演算子または純粋なトランスフォーマー演算子のみに基づく特徴抽出の制限、およびピクセルレベルの損失制約のために、ステガナライザーによって容易に検出できる。
そこで,本稿では,色JPEG画像の深部隠蔽に対する生成に基づく逆方向攻撃を導入し,ステガナリシスの観点からMRAGと呼ばれる多範囲表現駆動型逆方向ステゴ生成フレームワークを提案する。
具体的には、畳み込みの局所的な近接受信特性と変換器のグローバルレンジ依存性モデリングを統合し、MRAGを構築する。
一方、粗粒度および細粒度の周波数分解によって得られた変換画像を入力として用いて、多粒度情報を導入する。
さらに、ステガナライザーの分類された特徴の角度と標準空間において、生成したステゴをカバーに近づき、角度-北方向の歪み損失を抑えるように設計されている。
その結果、ステゴを発生させる過程では、小さいが効果的な敵の摂動が注入され、ステゴが好適な秘密回復性と非受容性を維持できる。
MRAGが最先端のパフォーマンスを達成できることを示す実験が盛んである。
関連論文リスト
- NS-Net: Decoupling CLIP Semantic Information through NULL-Space for Generalizable AI-Generated Image Detection [14.7077339945096]
NS-Netは、CLIPの視覚的特徴から意味情報を分離する新しいフレームワークである。
実験の結果、NS-Netは既存の最先端手法よりも優れており、検出精度は7.4%向上している。
論文 参考訳(メタデータ) (2025-08-02T07:58:15Z) - LATTE: Latent Trajectory Embedding for Diffusion-Generated Image Detection [11.700935740718675]
LATTE(Latent Trajectory Embedding)は、遅延埋め込みの進化をいくつかの遅延時間ステップでモデル化する、新しいアプローチである。
単一ステップエラーではなく、そのような埋め込みの軌跡をモデル化することにより、LATTEは、生成した画像と実を区別する微妙で差別的なパターンをキャプチャする。
論文 参考訳(メタデータ) (2025-07-03T12:53:47Z) - Zooming In on Fakes: A Novel Dataset for Localized AI-Generated Image Detection with Forgery Amplification Approach [69.01456182499486]
textbfBR-Genは、さまざまなシーン認識アノテーションを備えた15万のローカル鍛造イメージの大規模なデータセットである。
textbfNFA-ViTはノイズ誘導フォージェリ増幅ビジョン変換器で、ローカライズされたフォージェリの検出を強化する。
論文 参考訳(メタデータ) (2025-04-16T09:57:23Z) - MFCLIP: Multi-modal Fine-grained CLIP for Generalizable Diffusion Face Forgery Detection [64.29452783056253]
フォトリアリスティック・フェイスジェネレーション手法の急速な発展は、社会やアカデミックにおいて大きな関心を集めている。
既存のアプローチは主に画像モダリティを用いて顔の偽造パターンをキャプチャするが、きめ細かいノイズやテキストのような他のモダリティは完全には探索されていない。
そこで本研究では,画像ノイズの多点にわたる包括的かつきめ細かなフォージェリートレースをマイニングする,MFCLIP(MF-modal Fine-fine-fine-fine-fine-fine CLIP)モデルを提案する。
論文 参考訳(メタデータ) (2024-09-15T13:08:59Z) - HEAP: Unsupervised Object Discovery and Localization with Contrastive
Grouping [29.678756772610797]
教師なしオブジェクトの発見と位置決めは、監督なしで画像内のオブジェクトを検出し、セグメント化することを目的としている。
近年の取り組みは、自己監督型トランスフォーマー機能を利用して、有能な前景物体を識別する顕著な可能性を実証している。
これらの問題に対処するために、Herarchical mErging framework via contrAstive grouPing (HEAP) を紹介する。
論文 参考訳(メタデータ) (2023-12-29T06:46:37Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Latent Space Energy-based Model for Fine-grained Open Set Recognition [46.0388856095674]
微細なオープンセット認識(FineOSR)は、未知のクラスのイメージを拒絶しながら、微妙な外観の違いを持つクラスに属する画像を認識することを目的としている。
生成モデルの一種として、エネルギーベースモデル(EBM)は、生成的タスクと識別的タスクのハイブリッドモデリングのポテンシャルである。
本稿では,OSRの精密な視覚空間におけるエネルギーに基づく事前分布を用いた低次元潜伏空間について検討する。
論文 参考訳(メタデータ) (2023-09-19T16:00:09Z) - Unified Frequency-Assisted Transformer Framework for Detecting and
Grounding Multi-Modal Manipulation [109.1912721224697]
本稿では、DGM4問題に対処するため、UFAFormerという名前のUnified Frequency-Assisted TransFormerフレームワークを提案する。
離散ウェーブレット変換を利用して、画像を複数の周波数サブバンドに分解し、リッチな顔偽造品をキャプチャする。
提案する周波数エンコーダは、帯域内およびバンド間自己アテンションを組み込んだもので、多種多様なサブバンド内および多種多様なフォージェリー特徴を明示的に集約する。
論文 参考訳(メタデータ) (2023-09-18T11:06:42Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Hierarchical Forgery Classifier On Multi-modality Face Forgery Clues [61.37306431455152]
我々は,HFC-MFFD (hierarchical Forgery for Multi-modality Face Forgery Detection) を提案する。
HFC-MFFDは、マルチモーダルシナリオにおけるフォージェリー認証を強化するために、堅牢なパッチベースのハイブリッド表現を学習する。
クラス不均衡問題を緩和し、さらに検出性能を高めるために、特定の階層的な顔偽造を提案する。
論文 参考訳(メタデータ) (2022-12-30T10:54:29Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - MC-LCR: Multi-modal contrastive classification by locally correlated
representations for effective face forgery detection [11.124150983521158]
局所的関連表現を用いたマルチモーダルコントラスト分類法を提案する。
我々のMC-LCRは、空間領域と周波数領域の両方から真偽顔と偽顔の暗黙の局所的不一致を増幅することを目的としている。
我々は最先端の性能を達成し,本手法の堅牢性と一般化を実証する。
論文 参考訳(メタデータ) (2021-10-07T09:24:12Z) - Label Geometry Aware Discriminator for Conditional Generative Networks [40.89719383597279]
条件付きGenerative Adversarial Networks(GAN)は、目的のターゲットクラスで高画質の画像を生成することができます。
これらの合成画像は、画像分類などの下流監督タスクを改善するために必ずしも役に立たない。
論文 参考訳(メタデータ) (2021-05-12T08:17:25Z) - DWDN: Deep Wiener Deconvolution Network for Non-Blind Image Deblurring [66.91879314310842]
本稿では,古典的なWienerデコンボリューションフレームワークを学習深い特徴と統合することにより,特徴空間における明示的なデコンボリューションプロセスを提案する。
マルチスケールのカスケード機能改善モジュールは、分離された深い特徴から退色画像を予測する。
提案したDeep Wienerデコンボリューションネットワークは,目に見える成果物が少なく,かつ,最先端の非盲点画像デコンボリューション手法を広いマージンで定量的に上回っていることを示す。
論文 参考訳(メタデータ) (2021-03-18T00:38:11Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Progressively Unfreezing Perceptual GAN [28.330940021951438]
画像生成にはGAN(Generative Adversarial Network)が広く用いられているが、生成した画像はテクスチャの詳細が欠如している。
本稿では,テクスチャの細かい画像を生成するための一般的なフレームワークであるProgressively Unfreezing Perceptual GAN(PUPGAN)を提案する。
論文 参考訳(メタデータ) (2020-06-18T03:12:41Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。