論文の概要: JPEG Steganalysis Based on Steganographic Feature Enhancement and Graph
Attention Learning
- arxiv url: http://arxiv.org/abs/2302.02276v1
- Date: Sun, 5 Feb 2023 01:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:10:39.587332
- Title: JPEG Steganalysis Based on Steganographic Feature Enhancement and Graph
Attention Learning
- Title(参考訳): ステレオ特徴強調とグラフ注意学習に基づくJPEGステガナリシス
- Authors: Qiyun Liu, Zhiguang Yang and Hanzhou Wu
- Abstract要約: JPEGステガナリシスのための表現学習アルゴリズムを提案する。
グラフ注意学習モジュールは、畳み込みニューラルネットワークの局所的特徴学習によるグローバルな特徴損失を回避するように設計されている。
本発明の特徴強化モジュールは、畳み込み層の積み重ねがステガノグラフ情報を弱めるのを防止するために適用される。
- 参考スコア(独自算出の注目度): 15.652077779677091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of image steganalysis is to determine whether the carrier image
contains hidden information or not. Since JEPG is the most commonly used image
format over social networks, steganalysis in JPEG images is also the most
urgently needed to be explored. However, in order to detect whether secret
information is hidden within JEPG images, the majority of existing algorithms
are designed in conjunction with the popular computer vision related networks,
without considering the key characteristics appeared in image steganalysis. It
is crucial that the steganographic signal, as an extremely weak signal, can be
enhanced during its representation learning process. Motivated by this insight,
in this paper, we introduce a novel representation learning algorithm for JPEG
steganalysis that is mainly consisting of a graph attention learning module and
a feature enhancement module. The graph attention learning module is designed
to avoid global feature loss caused by the local feature learning of
convolutional neural network and reliance on depth stacking to extend the
perceptual domain. The feature enhancement module is applied to prevent the
stacking of convolutional layers from weakening the steganographic information.
In addition, pretraining as a way to initialize the network weights with a
large-scale dataset is utilized to enhance the ability of the network to
extract discriminative features. We advocate pretraining with ALASKA2 for the
model trained with BOSSBase+BOWS2. The experimental results indicate that the
proposed algorithm outperforms previous arts in terms of detection accuracy,
which has verified the superiority and applicability of the proposed work.
- Abstract(参考訳): 画像ステガナリシスの目的は、キャリア画像が隠された情報を含むか否かを決定することである。
JEPGはソーシャルネットワーク上で最も一般的に使用される画像フォーマットであるため、JPEG画像のステガナリシスも調査に最も緊急に必要である。
しかし、JEPG画像内に秘密情報が隠されているかどうかを検出するため、既存のアルゴリズムの大部分は、画像ステガナリシスに現れる重要な特徴を考慮せずに、一般的なコンピュータビジョン関連ネットワークと連携して設計されている。
非常に弱い信号であるステガノグラフ信号は、その表現学習過程において増強可能であることが重要である。
本稿では,この知見に動機づけられ,グラフ注意学習モジュールと特徴拡張モジュールを主とするjpeg steg analysisのための新しい表現学習アルゴリズムを提案する。
グラフ注意学習モジュールは、畳み込みニューラルネットワークの局所的特徴学習と、知覚領域を拡張するために深さ積み重ねに依存することによる、グローバルな特徴損失を回避するように設計されている。
この特徴強化モジュールは、畳み込み層の積み重ねがステガノグラフィー情報を弱めることを防止する。
さらに、大規模データセットでネットワーク重みを初期化する手段としてプレトレーニングを使用して、ネットワークが識別的特徴を抽出する能力を高める。
BOSSBase+BOWS2でトレーニングされたモデルに対して、ALASKA2での事前トレーニングを推奨する。
実験の結果,提案アルゴリズムは検出精度において先行技術よりも優れており,提案手法の優位性と適用性が確認されている。
関連論文リスト
- Unleashing the Power of Depth and Pose Estimation Neural Networks by
Designing Compatible Endoscopic Images [12.412060445862842]
内視鏡画像の特性を詳細に解析し、画像とニューラルネットワークの互換性を改善する。
まず,完全な画像情報の代わりに部分的な画像情報を入力するMask Image Modelling (MIM) モジュールを導入する。
第2に、画像とニューラルネットワークの互換性を明確に向上させるために、内視鏡画像を強化する軽量ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T02:19:38Z) - Masked Contrastive Graph Representation Learning for Age Estimation [44.96502862249276]
本稿では,画像冗長性情報を扱う上で,グラフ表現学習の特性を利用する。
年齢推定のためのMasked Contrastive Graph Representation Learning (MCGRL)法を提案する。
実世界の顔画像データセットに対する実験結果から,提案手法が他の最先端の年齢推定手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-16T15:53:21Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - Graph Representation Learning for Spatial Image Steganalysis [11.358487655918678]
空間画像ステガナリシスのためのグラフ表現学習アーキテクチャを提案する。
詳細なアーキテクチャでは、各画像をグラフに変換し、ノードは画像のパッチを表し、エッジはパッチ間の局所的な関連を示す。
注意ネットワークにグラフを供給することにより、効率的なステガナリシスのための識別的特徴を学習することができる。
論文 参考訳(メタデータ) (2021-10-03T09:09:08Z) - HistoTransfer: Understanding Transfer Learning for Histopathology [9.231495418218813]
我々は、ImageNetと病理組織データに基づいてトレーニングされたネットワークから抽出された特徴の性能を比較した。
より複雑なネットワークを用いて学習した機能が性能向上につながるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-13T18:55:23Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。