論文の概要: PPRSteg: Printing and Photography Robust QR Code Steganography via Attention Flow-Based Model
- arxiv url: http://arxiv.org/abs/2405.16414v1
- Date: Sun, 26 May 2024 03:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 21:28:05.084737
- Title: PPRSteg: Printing and Photography Robust QR Code Steganography via Attention Flow-Based Model
- Title(参考訳): PPRSteg:アテンションフローベースモデルによるロバストQRコードステガノグラフィ
- Authors: Huayuan Ye, Shenzhuo Zhang, Shiqi Jiang, Jing Liao, Shuhang Gu, Changbo Wang, Chenhui Li,
- Abstract要約: QRコードステガノグラフィーは、自然な画像に非自然なイメージを埋め込むことを目的としており、復元されたQRコードを認識する必要がある。
本稿では,QRコードをホスト画像に隠蔽する機能を持つPing and Photography Robust Steganography(PPRSteg)という新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.831644960576035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image steganography can hide information in a host image and obtain a stego image that is perceptually indistinguishable from the original one. This technique has tremendous potential in scenarios like copyright protection, information retrospection, etc. Some previous studies have proposed to enhance the robustness of the methods against image disturbances to increase their applicability. However, they generally cannot achieve a satisfying balance between the steganography quality and robustness. In this paper, we focus on the issue of QR Code steganography that is robust to real-world printing and photography. Different from common image steganography, QR Code steganography aims to embed a non-natural image into a natural image and the restored QR Code is required to be recognizable, which increases the difficulty of data concealing and revealing. Inspired by the recent developments in transformer-based vision models, we discover that the tokenized representation of images is naturally suitable for steganography. In this paper, we propose a novel QR Code embedding framework, called Printing and Photography Robust Steganography (PPRSteg), which is competent to hide QR Code in a host image with unperceivable changes and can restore it even if the stego image is printed out and photoed. We outline a transition process to reduce the artifacts in stego images brought by QR Codes. We also propose a steganography model based on normalizing flow, which combines the attention mechanism to enhance its performance. To our best knowledge, this is the first work that integrates the advantages of transformer models into normalizing flow. We conduct comprehensive and detailed experiments to demonstrate the effectiveness of our method and the result shows that PPRSteg has great potential in robust, secure and high-quality QR Code steganography.
- Abstract(参考訳): 画像ステガノグラフィーは、ホスト画像に情報を隠蔽し、元のものと知覚的に区別できないステゴ画像を得る。
このテクニックは、著作権保護や情報レトロスペクションといったシナリオにおいて、大きな可能性を秘めています。
従来の研究では、画像障害に対する手法の堅牢性を高め、適用性を高めることが提案されている。
しかし、それらは一般に、ステガノグラフィーの品質と堅牢性の間の満足のいくバランスを達成できない。
本稿では,現実世界の印刷・撮影に頑健なQRコードステガノグラフィーの課題に焦点をあてる。
一般的な画像ステガノグラフィとは異なり、QRコードステガノグラフィーは自然画像に非自然なイメージを埋め込むことを目的としており、復元されたQRコードは認識可能であり、データの隠蔽と公開の難しさを増大させる。
近年のトランスフォーマーに基づく視覚モデルの発展に触発されて、画像のトークン化表現がステガノグラフィーに自然に適していることが判明した。
本稿では,ホスト画像にQRコードを隠蔽する機能を持つ新しいQRコード埋め込みフレームワークであるPing and Photography Robust Steganography(PPRSteg)を提案する。
QRコードによってもたらされるステゴ画像のアーティファクトを削減するための遷移プロセスの概要を述べる。
また,注視機構を組み合わせた正規化フローに基づくステガノグラフィーモデルを提案する。
私たちの知る限りでは、トランスフォーマーモデルの利点を正規化フローに統合する最初の研究である。
提案手法の有効性を示すための包括的かつ詳細な実験を行い,PPRStegは堅牢でセキュアで高品質なQRコードステガノグラフィーにおいて大きな可能性を秘めていることを示した。
関連論文リスト
- DiffStega: Towards Universal Training-Free Coverless Image Steganography with Diffusion Models [38.17146643777956]
カバーレス画像ステガノグラフィ(CIS)は、カバー画像を使用しないことにより、非受容性を高める。
近年の研究では、拡散モデルによるCISの鍵としてテキストプロンプトが活用されている。
そこで我々は,DiffStegaを提案する。DiffStegaは,ユニバーサルアプリケーションのための革新的なトレーニングフリー拡散型CIS戦略である。
論文 参考訳(メタデータ) (2024-07-15T06:15:49Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - PRIS: Practical robust invertible network for image steganography [10.153270845070676]
画像ステガノグラフィー(英: Image steganography)は、人間の目では見えないように、他の画像の中に秘密情報を隠す技術である。
既存の画像ステガノグラフィ法のほとんどは、歪みに影響を受ける容器像の隠れ堅牢性が低い。
本稿では,可逆ニューラルネットワークに基づく画像ステガノグラフィーの堅牢性向上を目的としたPRISを提案する。
論文 参考訳(メタデータ) (2023-09-24T12:29:13Z) - Not All Image Regions Matter: Masked Vector Quantization for
Autoregressive Image Generation [78.13793505707952]
既存の自己回帰モデルは、まず画像再構成のための潜伏空間のコードブックを学習し、学習したコードブックに基づいて自己回帰的に画像生成を完了する2段階生成パラダイムに従っている。
そこで本研究では,Masked Quantization VAE (MQ-VAE) Stackモデルを用いた2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T02:15:53Z) - Image Steganography based on Style Transfer [12.756859984638961]
スタイル転送に基づく画像ステガノグラフィーネットワークを提案する。
コンテンツイメージスタイルを変換しながら、秘密情報を埋め込みます。
潜時空間では、秘密情報をカバー画像の潜時表現に統合してステゴ画像を生成する。
論文 参考訳(メタデータ) (2022-03-09T02:58:29Z) - DocEnTr: An End-to-End Document Image Enhancement Transformer [13.108797370734893]
文書画像は多くの劣化シナリオに影響され、認識と処理が困難になる。
本稿では,視覚変換器をベースとしたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-01-25T11:45:35Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Designing an Encoder for StyleGAN Image Manipulation [38.909059126878354]
最先端の無条件発電機であるStyleGANの潜伏空間について検討する。
そこで我々は,StyleGAN潜在空間における歪み依存性トレードオフと歪み知覚トレードオフの存在を同定し,解析する。
本稿では,実画像の編集を容易にするための2つの原理に基づくエンコーダを提案する。
論文 参考訳(メタデータ) (2021-02-04T17:52:38Z) - News Image Steganography: A Novel Architecture Facilitates the Fake News
Identification [52.83247667841588]
フェイクニュースの大部分が、他の情報源からのアンスタンプ画像を引用している。
本稿では,GANに基づく画像ステガノグラフィによる不整合を明らかにするために,News Image Steganographyというアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-01-03T11:12:23Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。