論文の概要: Multi-Image Steganography Using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2101.00350v1
- Date: Sat, 2 Jan 2021 01:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 10:11:07.520570
- Title: Multi-Image Steganography Using Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いたマルチイメージステレオグラフィ
- Authors: Abhishek Das, Japsimar Singh Wahi, Mansi Anand, Yugant Rana
- Abstract要約: スタガノグラフィーは、通常の公開メッセージの中に秘密のメッセージを隠す科学です。
本研究では,ディープニューラルネットワークを用いて,同一解像度の単一のカバー画像内の複数の秘密画像の符号化と復号を行う。
- 参考スコア(独自算出の注目度): 9.722040907570072
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Steganography is the science of hiding a secret message within an ordinary
public message. Over the years, steganography has been used to encode a lower
resolution image into a higher resolution image by simple methods like LSB
manipulation. We aim to utilize deep neural networks for the encoding and
decoding of multiple secret images inside a single cover image of the same
resolution.
- Abstract(参考訳): ステガノグラフィーは、秘密のメッセージを普通の公開メッセージの中に隠す科学である。
長年にわたり、低解像度画像をLSB操作のような単純な方法で高解像度画像に符号化するためにステガノグラフィーが用いられてきた。
本研究では,ディープニューラルネットワークを用いて,同一解像度の単一のカバー画像内の複数の秘密画像の符号化と復号を行う。
関連論文リスト
- Cover-separable Fixed Neural Network Steganography via Deep Generative Models [37.08937194546323]
我々は、Cs-FNNSという、カバー分離可能な固定ニューラルネットワークステレオグラフィーを提案する。
Cs-FNNSでは,シークレットデータを受容不能な摂動に直接エンコードするSPSアルゴリズムを提案する。
本稿では,視覚的品質と非検出性の観点から,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-16T05:47:06Z) - DiffStega: Towards Universal Training-Free Coverless Image Steganography with Diffusion Models [38.17146643777956]
カバーレス画像ステガノグラフィ(CIS)は、カバー画像を使用しないことにより、非受容性を高める。
近年の研究では、拡散モデルによるCISの鍵としてテキストプロンプトが活用されている。
そこで我々は,DiffStegaを提案する。DiffStegaは,ユニバーサルアプリケーションのための革新的なトレーニングフリー拡散型CIS戦略である。
論文 参考訳(メタデータ) (2024-07-15T06:15:49Z) - Deep Cross-Modal Steganography Using Neural Representations [24.16485513152904]
Inlicit Neural Representations (INR) を用いたクロスモーダルステガノグラフィーフレームワークを提案する。
提案フレームワークは秘密データを表現するためにINRを用いており、様々なモダリティや解像度のデータを扱うことができる。
論文 参考訳(メタデータ) (2023-07-02T08:08:02Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Image Steganography based on Style Transfer [12.756859984638961]
スタイル転送に基づく画像ステガノグラフィーネットワークを提案する。
コンテンツイメージスタイルを変換しながら、秘密情報を埋め込みます。
潜時空間では、秘密情報をカバー画像の潜時表現に統合してステゴ画像を生成する。
論文 参考訳(メタデータ) (2022-03-09T02:58:29Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - Deep Neural Networks based Invisible Steganography for Audio-into-Image
Algorithm [0.0]
画像と音声の整合性は良好に保たれ、隠れた音声の最大長は大幅に改善されている。
第1のネットワークは秘密の音声を画像に隠蔽し、第2のネットワークは画像を復号して元の音声を得る責務を負う。
論文 参考訳(メタデータ) (2021-02-18T06:13:05Z) - News Image Steganography: A Novel Architecture Facilitates the Fake News
Identification [52.83247667841588]
フェイクニュースの大部分が、他の情報源からのアンスタンプ画像を引用している。
本稿では,GANに基づく画像ステガノグラフィによる不整合を明らかにするために,News Image Steganographyというアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-01-03T11:12:23Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Modeling Lost Information in Lossy Image Compression [72.69327382643549]
ロスシー画像圧縮は、デジタル画像の最もよく使われる演算子の1つである。
Invertible Lossy Compression (ILC) と呼ばれる新しい非可逆的フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T04:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。