論文の概要: Diffusion-Stego: Training-free Diffusion Generative Steganography via
Message Projection
- arxiv url: http://arxiv.org/abs/2305.18726v1
- Date: Tue, 30 May 2023 04:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 18:29:50.072139
- Title: Diffusion-Stego: Training-free Diffusion Generative Steganography via
Message Projection
- Title(参考訳): diffusion-stego: メッセージプロジェクションによる無訓練拡散生成ステガノグラフィー
- Authors: Daegyu Kim, Chaehun Shin, Jooyoung Choi, Dahuin Jung, Sungroh Yoon
- Abstract要約: 生成ステガノグラフィー(Generative steganography)は、生成した画像に秘密のメッセージを隠蔽するプロセスである。
画像生成における他の生成モデルよりも優れた拡散モデルに基づく生成ステガノグラフィー手法であるDiffusion-Stegoを提案する。
- 参考スコア(独自算出の注目度): 21.09721873167602
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative steganography is the process of hiding secret messages in
generated images instead of cover images. Existing studies on generative
steganography use GAN or Flow models to obtain high hiding message capacity and
anti-detection ability over cover images. However, they create relatively
unrealistic stego images because of the inherent limitations of generative
models. We propose Diffusion-Stego, a generative steganography approach based
on diffusion models which outperform other generative models in image
generation. Diffusion-Stego projects secret messages into latent noise of
diffusion models and generates stego images with an iterative denoising
process. Since the naive hiding of secret messages into noise boosts visual
degradation and decreases extracted message accuracy, we introduce message
projection, which hides messages into noise space while addressing these
issues. We suggest three options for message projection to adjust the trade-off
between extracted message accuracy, anti-detection ability, and image quality.
Diffusion-Stego is a training-free approach, so we can apply it to pre-trained
diffusion models which generate high-quality images, or even large-scale
text-to-image models, such as Stable diffusion. Diffusion-Stego achieved a high
capacity of messages (3.0 bpp of binary messages with 98% accuracy, and 6.0 bpp
with 90% accuracy) as well as high quality (with a FID score of 2.77 for 1.0
bpp on the FFHQ 64$\times$64 dataset) that makes it challenging to distinguish
from real images in the PNG format.
- Abstract(参考訳): 生成ステガノグラフィー(Generative steganography)は、生成した画像に秘密のメッセージを隠蔽するプロセスである。
ジェネレーティブステガノグラフィーの既存の研究は、GANまたはフローモデルを用いて、隠蔽メッセージ容量とカバー画像上のアンチ検出能力を得る。
しかし、生成モデル固有の制限のため、比較的非現実的なステゴ画像を作成する。
画像生成における他の生成モデルよりも優れた拡散モデルに基づく生成ステガノグラフィー手法であるDiffusion-Stegoを提案する。
diffusion-stegoはシークレットメッセージを拡散モデルの潜在ノイズに投影し、反復的な同期プロセスでstego画像を生成する。
ノイズへの秘密メッセージの隠蔽は視覚的な劣化を増大させ,抽出されたメッセージ精度を低下させるため,これらの問題に対処しつつ,ノイズ空間にメッセージを隠蔽するメッセージ投影を導入する。
メッセージプロジェクションには,抽出したメッセージ精度,検出能力,画質のトレードオフを調整するための3つのオプションを提案する。
diffusion-stegoはトレーニングフリーなアプローチなので、高品質な画像を生成する事前学習された拡散モデルや、安定した拡散のような大規模なテキストから画像へのモデルにも適用できます。
diffusion-stegoは高い容量のメッセージ(98%の精度で3.0 bpp、90%の精度で6.0 bpp)と高品質(ffhq 64$\times$64データセットで1.0 bppで2.77のfidスコア)を達成し、pngフォーマットでの実際の画像との区別を困難にしている。
関連論文リスト
- DiffDis: Empowering Generative Diffusion Model with Cross-Modal
Discrimination Capability [75.9781362556431]
本稿では,拡散過程下での1つのフレームワークに,モダクティブと差別的事前学習を統一するDiffDisを提案する。
DiffDisは画像生成タスクと画像テキスト識別タスクの両方において単一タスクモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-18T05:03:48Z) - Reverse Stable Diffusion: What prompt was used to generate this image? [73.10116197883303]
本研究では, 生成拡散モデルにより生成された画像に対して, 迅速な埋め込みを予測できる課題について検討する。
本稿では,複数ラベルの語彙分類を目的とする共同学習フレームワークを提案する。
我々はDiffusionDBデータセットの実験を行い、安定拡散によって生成された画像からテキストプロンプトを予測する。
論文 参考訳(メタデータ) (2023-08-02T23:39:29Z) - Discffusion: Discriminative Diffusion Models as Few-shot Vision and Language Learners [88.07317175639226]
本稿では,事前学習したテキストと画像の拡散モデルを数ショットの識別学習者に変換する新しい手法,DSDを提案する。
本手法は, 安定拡散モデルにおいて, 視覚情報とテキスト情報の相互影響を捉えるために, クロスアテンションスコアを用いている。
論文 参考訳(メタデータ) (2023-05-18T05:41:36Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - What the DAAM: Interpreting Stable Diffusion Using Cross Attention [39.97805685586423]
大規模拡散ニューラルネットワークは、テキスト・画像生成において重要なマイルストーンである。
説明可能性の欠如と解釈可能性の分析は、主にプロプライエタリでクローズドソースな性質のため、理解に乏しいままである。
本稿では,潜伏するサブネットワークにおけるクロスアテンションアクティベーションのアップスケーリングと集約に基づく新しい手法であるDAAMを提案する。
DAAMは,61.0のmIoUを達成し,キャプション生成画像に対して強く作用し,オープン語彙セグメンテーションにおける教師付きモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-10T17:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。