論文の概要: A Dynamic YOLO-Based Sequence-Matching Model for Efficient Coverless Image Steganography
- arxiv url: http://arxiv.org/abs/2401.11946v1
- Date: Mon, 22 Jan 2024 13:35:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 08:36:55.309798
- Title: A Dynamic YOLO-Based Sequence-Matching Model for Efficient Coverless Image Steganography
- Title(参考訳): 効率的なカバーレス画像ステガノグラフィーのための動的YOLOに基づくシーケンスマッチングモデル
- Authors: Jiajun Liu, Lina Tan, Zhili Zhou, Yi Li, Peng Chen,
- Abstract要約: 動的にマッチングされた画像に基づく効率的なカバーレスステガノグラフィー手法を提案する。
YOLOは最適なオブジェクトの選択に使用され、これらのオブジェクトとスクランブル要素の間のマッピング辞書が確立される。
典型的な幾何学的攻撃の下では、平均して79.85%の秘密情報を復元することができる。
- 参考スコア(独自算出の注目度): 12.950354250175982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many existing coverless steganography methods establish a mapping relationship between cover images and hidden data. There exists an issue that the number of images stored in the database grows exponentially as the steganographic capacity rises. The need for a high steganographic capacity makes it challenging to build an image database. To improve the image library utilization and anti-attack capability of the steganography system, we present an efficient coverless scheme based on dynamically matched substrings. YOLO is employed for selecting optimal objects, and a mapping dictionary is established between these objects and scrambling factors. With the aid of this dictionary, each image is effectively assigned to a specific scrambling factor, which is used to scramble the receiver's sequence key. To achieve sufficient steganography capability based on a limited image library, all substrings of the scrambled sequences hold the potential to hide data. After completing the secret information matching, the ideal number of stego images will be obtained from the database. According to experimental results, this technology outperforms most previous works on data load, transmission security, and hiding capacity. Under typical geometric attacks, it can recover 79.85\% of secret information on average. Furthermore, only approximately 200 random images are needed to meet a capacity of 19 bits per image.
- Abstract(参考訳): 多くの既存のカバーレスステガノグラフィー手法は、カバー画像と隠れデータの間のマッピング関係を確立する。
データベースに格納されている画像の数は、帳票の容量が増加するにつれて指数関数的に増加するという問題がある。
高いステガノグラフィー能力の必要性は、イメージデータベースの構築を困難にしている。
ステガノグラフィーシステムの画像ライブラリ利用とアンチアタック機能を改善するために,動的にマッチングされたサブストリングに基づく効率的なカバーレススキームを提案する。
YOLOは最適なオブジェクトの選択に使用され、これらのオブジェクトとスクランブル要素の間のマッピング辞書が確立される。
この辞書の助けを借りて、各画像は、受信者のシーケンスキーをスクランブルするために使用される特定のスクランブル係数に効果的に割り当てられる。
限られた画像ライブラリに基づく十分なステガノグラフィ機能を実現するため、スクランブルシーケンスの全てのサブストリングがデータを隠蔽する可能性を秘めている。
秘密情報マッチングが完了すると、データベースから理想的なステゴ画像の枚数を得る。
実験結果によると、この技術は、データ負荷、送信セキュリティ、隠蔽能力に関するこれまでの研究よりも優れていた。
典型的な幾何学的攻撃の下では、平均して79.85 %の秘密情報を復元することができる。
さらに、画像当たり19ビットの容量を満たすために、ランダムな画像は200個程度しか必要としない。
関連論文リスト
- StegaINR4MIH: steganography by implicit neural representation for multi-image hiding [6.29495604869364]
複数の秘密画像を隠蔽画像に埋め込んだマルチ画像隠蔽は、画像ステガノグラフィー分野における研究ホットスポットになりつつある。
本稿では,1つの暗黙的表現関数内に複数の画像を隠蔽できる新しい暗黙的表現ステガノグラフィーフレームワークであるStegaINR4MIHを提案する。
論文 参考訳(メタデータ) (2024-10-14T03:09:41Z) - EmbAu: A Novel Technique to Embed Audio Data Using Shuffled Frog Leaping
Algorithm [0.7673339435080445]
ステガノグラフィーアルゴリズムの目的は、データ暗号化のために機密情報のビットを隠蔽できるホストまたはカバー画像中の適切なピクセル位置を特定することである。
機密情報を統合し、画像の視覚的外観を維持する能力を向上させるために作業が行われている。
そこで我々は,Shuffled Frog Leaping Algorithm (SFLA) を用いて,被写体画像に機密情報を置く画素の順序を決定する。
論文 参考訳(メタデータ) (2023-12-13T17:34:08Z) - Semantic Generative Augmentations for Few-Shot Counting [0.0]
合成データは,クラス非依存のカウントにどのように役立つかを検討する。
本稿では,安定拡散の二重条件付けをプロンプトと密度マップの両方で行うことを提案する。
実験により, 多様な生成戦略により, 2つの最近の数理モデルと数理モデルとのカウント精度が大幅に向上することが確認された。
論文 参考訳(メタデータ) (2023-10-26T11:42:48Z) - Improving Multimodal Datasets with Image Captioning [65.74736570293622]
生成したキャプションが非記述テキストによるWebスクラッピングデータポイントの有用性を高める方法について検討する。
DataComp の大規模字幕 (1.28B 画像テキストペア) を用いた実験により,合成テキストの限界について考察した。
論文 参考訳(メタデータ) (2023-07-19T17:47:12Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Weakly Supervised Annotations for Multi-modal Greeting Cards Dataset [8.397847537464534]
我々は,Greeting Cardsデータセットから抽象的な視覚概念を学ぶために,事前訓練された画像とテキスト埋め込みから特徴を集約することを提案する。
提案したデータセットは、事前訓練されたテキスト・ツー・イメージ生成モデルを用いて、挨拶カード画像を生成するのにも有用である。
論文 参考訳(メタデータ) (2022-12-01T20:07:52Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Generative Steganography Network [37.182458848616754]
表紙画像を用いることなく現実的なステゴ画像を生成することのできる,高度な生成型ステガノグラフィーネットワーク(GSN)を提案する。
シークレットブロックと呼ばれるモジュールは、画像生成中に特徴マップにシークレットデータを隠蔽するように微妙に設計されている。
論文 参考訳(メタデータ) (2022-07-28T03:34:37Z) - Coarse-to-Fine Vision-Language Pre-training with Fusion in the Backbone [170.85076677740292]
本稿では、視覚言語(VL)事前学習のための新しいモデルアーキテクチャであるFIBER(Fusion-In-the-Backbone-basedER)を提案する。
ユニモーダルバックボーンの後に、専用のトランスフォーマー層を融合させる代わりに、FIBERはマルチモーダルフュージョンをモデルに深く押し込む。
我々は、VQA、画像キャプション、検索、フレーズグラウンド、参照表現理解、オブジェクト検出など、幅広いVLタスクに関する包括的な実験を行う。
論文 参考訳(メタデータ) (2022-06-15T16:41:29Z) - Prefix Conditioning Unifies Language and Label Supervision [84.11127588805138]
学習した表現の一般化性を低減することにより,データセットのバイアスが事前学習に悪影響を及ぼすことを示す。
実験では、この単純な手法により、ゼロショット画像認識精度が向上し、画像レベルの分布シフトに対するロバスト性が向上することを示した。
論文 参考訳(メタデータ) (2022-06-02T16:12:26Z) - Using Text to Teach Image Retrieval [47.72498265721957]
ニューラルネットワークを用いて学習した画像の特徴空間をグラフとして表現するために,画像多様体の概念に基づいて構築する。
我々は、幾何学的に整列したテキストで多様体のサンプルを増補し、大量の文を使って画像について教える。
実験結果から, 結合埋め込み多様体は頑健な表現であり, 画像検索を行うためのより良い基礎となることが示唆された。
論文 参考訳(メタデータ) (2020-11-19T16:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。