論文の概要: PSyDUCK: Training-Free Steganography for Latent Diffusion
- arxiv url: http://arxiv.org/abs/2501.19172v2
- Date: Sat, 08 Mar 2025 19:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:42:14.410556
- Title: PSyDUCK: Training-Free Steganography for Latent Diffusion
- Title(参考訳): PSyDUCK : 潜伏拡散に対する無訓練ステガノグラフィー
- Authors: Aqib Mahfuz, Georgia Channing, Mark van der Wilk, Philip Torr, Fabio Pizzati, Christian Schroeder de Witt,
- Abstract要約: PSyDUCKは、潜伏拡散モデルに特化して設計されたトレーニング不要で、モデルに依存しないステガノグラフィーフレームワークである。
本手法は,埋め込み強度を精度と検出性のバランスに動的に適用し,既存の画素空間アプローチを大幅に改善する。
- 参考スコア(独自算出の注目度): 22.17835886086284
- License:
- Abstract: Recent advances in generative AI have opened promising avenues for steganography, which can securely protect sensitive information for individuals operating in hostile environments, such as journalists, activists, and whistleblowers. However, existing methods for generative steganography have significant limitations, particularly in scalability and their dependence on retraining diffusion models. We introduce PSyDUCK, a training-free, model-agnostic steganography framework specifically designed for latent diffusion models. PSyDUCK leverages controlled divergence and local mixing within the latent denoising process, enabling high-capacity, secure message embedding without compromising visual fidelity. Our method dynamically adapts embedding strength to balance accuracy and detectability, significantly improving upon existing pixel-space approaches. Crucially, PSyDUCK extends generative steganography to latent-space video diffusion models, surpassing previous methods in both encoding capacity and robustness. Extensive experiments demonstrate PSyDUCK's superiority over state-of-the-art techniques, achieving higher transmission accuracy and lower detectability rates across diverse image and video datasets. By overcoming the key challenges associated with latent diffusion model architectures, PSyDUCK sets a new standard for generative steganography, paving the way for scalable, real-world steganographic applications.
- Abstract(参考訳): 近年のジェネレーティブAIの進歩は、ジャーナリスト、活動家、ホイッスルブロワーなど敵対的な環境で活動する個人に対して、機密情報を安全に保護するステガノグラフィーの有望な道を開いた。
しかし、既存のステガノグラフィーの手法には、特にスケーラビリティと再学習拡散モデルへの依存において、大きな制限がある。
遅延拡散モデルに特化して設計されたPSyDUCKは、トレーニング不要で、モデルに依存しないステガノグラフィーフレームワークである。
PSyDUCKは制御された分散と局所混合を利用して、視覚的忠実さを損なうことなく、高容量でセキュアなメッセージ埋め込みを可能にする。
本手法は,埋め込み強度を精度と検出性のバランスに動的に適用し,既存の画素空間アプローチを大幅に改善する。
重要なことは、PSyDUCKは生成ステガノグラフィーを潜在空間ビデオ拡散モデルに拡張し、エンコーディング能力とロバスト性の両方において従来の手法を超越している。
大規模な実験は、PSyDUCKが最先端技術よりも優れていることを示し、様々な画像やビデオデータセット間で高い伝送精度と低い検出率を達成する。
潜伏拡散モデルアーキテクチャに関連する重要な課題を克服することで、PSyDUCKは生成ステガノグラフィーの新しい標準を設定し、スケーラブルで実世界のステガノグラフィー応用への道を開いた。
関連論文リスト
- DiffStega: Towards Universal Training-Free Coverless Image Steganography with Diffusion Models [38.17146643777956]
カバーレス画像ステガノグラフィ(CIS)は、カバー画像を使用しないことにより、非受容性を高める。
近年の研究では、拡散モデルによるCISの鍵としてテキストプロンプトが活用されている。
そこで我々は,DiffStegaを提案する。DiffStegaは,ユニバーサルアプリケーションのための革新的なトレーニングフリー拡散型CIS戦略である。
論文 参考訳(メタデータ) (2024-07-15T06:15:49Z) - Diffusion-Based Hierarchical Image Steganography [60.69791384893602]
Hierarchical Image Steganographyは、複数のイメージを単一のコンテナに埋め込むセキュリティとキャパシティを高める新しい方法である。
フローモデルの可逆性とともに拡散モデルの堅牢性を利用する。
この革新的な構造は、コンテナイメージを自律的に生成し、複数の画像やテキストを安全かつ効率的に隠蔽することができる。
論文 参考訳(メタデータ) (2024-05-19T11:29:52Z) - SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - CRoSS: Diffusion Model Makes Controllable, Robust and Secure Image
Steganography [15.705627450233504]
制御可能・ロバスト・セキュア画像ステガノグラフィー(CRoSS)という新しい画像ステガノグラフィーフレームワークを提案する。
CRoSSは、カバーベース画像ステガノグラフィー法と比較して、制御性、堅牢性、セキュリティにおいて大きな利点がある。
論文 参考訳(メタデータ) (2023-05-26T13:52:57Z) - Diffusion Models as Masked Autoencoders [52.442717717898056]
拡散モデルに対する近年の関心を踏まえて、生成的に事前学習された視覚表現を再考する。
拡散モデルによる直接事前学習では強い表現は得られないが、マスク付き入力上での拡散モデルと公式拡散モデルをマスク付きオートエンコーダ(DiffMAE)として条件付ける。
設計選択の長所と短所について包括的な研究を行い、拡散モデルとマスク付きオートエンコーダ間の接続を構築する。
論文 参考訳(メタデータ) (2023-04-06T17:59:56Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - On the detection of synthetic images generated by diffusion models [18.12766911229293]
拡散モデル(DM)に基づく手法が注目されている。
DMはテキストベースのビジュアルコンテンツの作成を可能にする。
悪意のあるユーザーは、自分の攻撃に完全に適合した偽のメディアを生成し、配布することができる。
論文 参考訳(メタデータ) (2022-11-01T18:10:55Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。