論文の概要: Universal Deep Network for Steganalysis of Color Image based on Channel
Representation
- arxiv url: http://arxiv.org/abs/2111.12231v1
- Date: Wed, 24 Nov 2021 02:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:12:29.046314
- Title: Universal Deep Network for Steganalysis of Color Image based on Channel
Representation
- Title(参考訳): チャネル表現に基づくカラー画像のsteg解析のためのユニバーサルディープネットワーク
- Authors: Kangkang Wei, Weiqi Luo, Shunquan Tan, Jiwu Huang
- Abstract要約: 我々は空間領域とJPEG領域における普遍的なカラー画像ステガナリシスネットワーク(UCNet)を設計する。
提案手法は前処理,畳み込み,分類モジュールを含む。
本研究では, ALASKA II に関する広範囲な実験を行い, 提案手法が最先端の成果を得られることを示す。
- 参考スコア(独自算出の注目度): 41.86330101334733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Up to now, most existing steganalytic methods are designed for grayscale
images, and they are not suitable for color images that are widely used in
current social networks. In this paper, we design a universal color image
steganalysis network (called UCNet) in spatial and JPEG domains. The proposed
method includes preprocessing, convolutional, and classification modules. To
preserve the steganographic artifacts in each color channel, in preprocessing
module, we firstly separate the input image into three channels according to
the corresponding embedding spaces (i.e. RGB for spatial steganography and
YCbCr for JPEG steganography), and then extract the image residuals with 62
fixed high-pass filters, finally concatenate all truncated residuals for
subsequent analysis rather than adding them together with normal convolution
like existing CNN-based steganalyzers. To accelerate the network convergence
and effectively reduce the number of parameters, in convolutional module, we
carefully design three types of layers with different shortcut connections and
group convolution structures to further learn high-level steganalytic features.
In classification module, we employ a global average pooling and fully
connected layer for classification. We conduct extensive experiments on ALASKA
II to demonstrate that the proposed method can achieve state-of-the-art results
compared with the modern CNN-based steganalyzers (e.g., SRNet and J-YeNet) in
both spatial and JPEG domains, while keeping relatively few memory requirements
and training time. Furthermore, we also provide necessary descriptions and many
ablation experiments to verify the rationality of the network design.
- Abstract(参考訳): これまで、既存のステガナリシス法はグレースケールの画像のために設計されており、現在のソーシャルネットワークで広く使われているカラー画像には適していない。
本稿では,空間領域とJPEG領域における普遍的なカラー画像ステガナリシスネットワーク(UCNet)を設計する。
提案手法は前処理,畳み込み,分類モジュールを含む。
各カラーチャネルにおけるステガノグラフィーのアーティファクトを前処理モジュールで保存するために、入力画像を対応する埋め込み空間(例えば、空間ステガノグラフィーのRGBとJPEGステガノグラフィーのYCbCr)に従って3つのチャネルに分離し、次いで62個の固定されたハイパスフィルタで画像残基を抽出し、最終的に、既存のCNNベースのステガノライザーのような通常の畳み込みと組み合わせるのではなく、後の分析のために全てのトランクテッド残基を連結する。
畳み込みモジュールでは,ネットワーク収束を加速し,パラメータ数を効果的に削減するために,異なるショートカット接続とグループ畳み込み構造を持つ3種類の層を慎重に設計し,さらに高いレベルのステガナシス特性を学習する。
分類モジュールでは,グローバル平均プールと完全連結層を用いて分類を行う。
提案手法は,空間領域およびJPEG領域における最新のCNNベースのステガナライザー(SRNetやJ-YeNetなど)と比較して,比較的少ないメモリ要件とトレーニング時間を維持しながら,最先端の結果が得られることを示す。
さらに,ネットワーク設計の合理性を検証するために必要な記述や多くのアブレーション実験も提供する。
関連論文リスト
- Multispectral Texture Synthesis using RGB Convolutional Neural Networks [2.3213238782019316]
最先端のRGBテクスチャ合成アルゴリズムは、深い特徴の統計によって計算されるスタイル距離に依存している。
本稿では,これらの手法をマルチスペクトルイメージングに拡張する2つの方法を提案する。
論文 参考訳(メタデータ) (2024-10-21T13:49:54Z) - Evaluating the Effectiveness of Hybrid Quantum-Classical Convolutional Neural Networks for Image Classification in Multiple Color Spaces [1.565361244756411]
そこで本研究では,4種類のカラー空間画像の性能解析を行うためのハイブリッド量子古典畳み込みニューラルネットワーク(HQCCNN)モデルを提案する。
一部のスーパークラスでは、モデルがラボ、YCrCb、HSVの色空間だけでなく、RGBよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T11:46:56Z) - Clothes Grasping and Unfolding Based on RGB-D Semantic Segmentation [21.950751953721817]
セグメンテーションのための双方向フラクタルクロスフュージョンネットワーク(BiFCNet)を提案する。
我々は、Fractal Cross FusionモジュールがRGBと深度データを融合するネットワークへの入力として、リッチな色特徴を持つRGB画像を使用する。
実データ収集のコストを削減するため,敵対的戦略に基づくデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-05-05T03:21:55Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Occlusion-Aware Instance Segmentation via BiLayer Network Architectures [73.45922226843435]
本稿では,2層畳み込みネットワーク(BCNet)を提案する。このネットワークでは,トップ層がオブジェクト(オブオーバ)を検出し,ボトム層が部分的にオブオーバドされたインスタンス(オブオーバド)を推測する。
一般的な畳み込みネットワーク設計,すなわちFCN(Fully Convolutional Network)とGCN(Graph Convolutional Network)を用いた2層構造の有効性について検討する。
論文 参考訳(メタデータ) (2022-08-08T21:39:26Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Supervised Segmentation of Retinal Vessel Structures Using ANN [0.0]
この研究は、DRIVEデータセットで知られている最も一般的な網膜データセットの1つである20の画像を用いて行われた。
20枚の画像の平均セグメンテーション精度は0.9492である。
論文 参考訳(メタデータ) (2020-01-15T20:48:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。