論文の概要: CLPSTNet: A Progressive Multi-Scale Convolutional Steganography Model Integrating Curriculum Learning
- arxiv url: http://arxiv.org/abs/2504.16364v1
- Date: Wed, 23 Apr 2025 02:34:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.979468
- Title: CLPSTNet: A Progressive Multi-Scale Convolutional Steganography Model Integrating Curriculum Learning
- Title(参考訳): CLPSTNet:カリキュラム学習を統合した多段階畳み込みステガノグラフィーモデル
- Authors: Fengchun Liu, Tong Zhang, Chunying Zhang,
- Abstract要約: 本稿では,CLPSTNet(Culculum Learning Progressive Steganophy Network)を提案する。
このネットワークは、インセプション構造と拡張畳み込みを統合する複数のプログレッシブなマルチスケール畳み込みモジュールで構成されている。
実験結果から,提案したCLPSTNetはPSNR,SSIM,デコード精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 8.251354931895667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, a large number of works have introduced Convolutional Neural Networks (CNNs) into image steganography, which transform traditional steganography methods such as hand-crafted features and prior knowledge design into steganography methods that neural networks autonomically learn information embedding. However, due to the inherent complexity of digital images, issues of invisibility and security persist when using CNN models for information embedding. In this paper, we propose Curriculum Learning Progressive Steganophy Network (CLPSTNet). The network consists of multiple progressive multi-scale convolutional modules that integrate Inception structures and dilated convolutions. The module contains multiple branching pathways, starting from a smaller convolutional kernel and dilatation rate, extracting the basic, local feature information from the feature map, and gradually expanding to the convolution with a larger convolutional kernel and dilatation rate for perceiving the feature information of a larger receptive field, so as to realize the multi-scale feature extraction from shallow to deep, and from fine to coarse, allowing the shallow secret information features to be refined in different fusion stages. The experimental results show that the proposed CLPSTNet not only has high PSNR , SSIM metrics and decoding accuracy on three large public datasets, ALASKA2, VOC2012 and ImageNet, but also the steganographic images generated by CLPSTNet have low steganalysis scores.You can find our code at \href{https://github.com/chaos-boops/CLPSTNet}{https://github.com/chaos-boops/CLPSTNet}.
- Abstract(参考訳): 近年、畳み込みニューラルネットワーク(CNN)を画像ステガノグラフィーに導入し、手作りの特徴や事前知識設計といった従来のステガノグラフィー手法を、ニューラルネットワークが自律的に情報埋め込みを学習するステガノグラフィー手法に変換する。
しかし、デジタル画像の本質的な複雑さのため、情報埋め込みにCNNモデルを使用する場合、可視性やセキュリティの問題が持続する。
本稿では,CLPSTNet(Curriculum Learning Progressive Steganophy Network)を提案する。
このネットワークは、インセプション構造と拡張畳み込みを統合する複数のプログレッシブなマルチスケール畳み込みモジュールで構成されている。
モジュールは、より小さな畳み込みカーネルと拡張レートから始まり、特徴マップから基本的で局所的な特徴情報を抽出し、より大きな畳み込みカーネルとの畳み込みに徐々に拡大し、より大きな受容領域の特徴情報を知覚する拡張レートを含み、浅いから深い、そして細かいから粗いまでのマルチスケールの特徴抽出を実現し、浅い秘密情報特徴を異なる融合段階で洗練することができる。
実験結果から,提案したCLPSTNetはPSNR,SSIM,ALASKA2,VOC2012,ImageNetの3大公開データセット上での復号精度だけでなく,CLPSTNetが生成するステガナリシスのスコアも低いことがわかった。
関連論文リスト
- Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Multiscale Convolutional Transformer with Center Mask Pretraining for
Hyperspectral Image Classificationtion [14.33259265286265]
本稿では,空間スペクトル情報の効率的な抽出を実現するために,高スペクトル画像(HSI)のための高速多スケール畳み込みモジュールを提案する。
マスクオートエンコーダと同様に、我々の事前学習法は、エンコーダ内の中央画素の対応するトークンのみをマスクし、残りのトークンをデコーダに入力し、中央画素のスペクトル情報を再構成する。
論文 参考訳(メタデータ) (2022-03-09T14:42:26Z) - Image deblurring based on lightweight multi-information fusion network [6.848061582669787]
画像デブロアリングのための軽量多情報融合ネットワーク(LMFN)を提案する。
符号化段階では、画像特徴は、マルチスケール情報抽出および融合のための様々な小規模空間に還元される。
その後、デコード段階で蒸留ネットワークが使用され、ネットワークは残留学習から最も利益を得ます。
私たちのネットワークは、少ないパラメータで最新の画像破壊結果を達成し、モデルの複雑さで既存の方法を上回ることができます。
論文 参考訳(メタデータ) (2021-01-14T00:37:37Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Sparse Coding Driven Deep Decision Tree Ensembles for Nuclear
Segmentation in Digital Pathology Images [15.236873250912062]
デジタル病理画像セグメンテーションタスクにおいて、ディープニューラルネットワークと高い競争力を持つ、容易に訓練されながら強力な表現学習手法を提案する。
ScD2TEと略すこの手法はスパースコーディング駆動の深層決定木アンサンブルと呼ばれ、表現学習の新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-13T02:59:31Z) - Multi-Subspace Neural Network for Image Recognition [33.61205842747625]
画像分類タスクでは, 特徴抽出は常に大きな問題であり, クラス内変動により抽出器の設計が困難になる。
近年、ディープラーニングはデータから機能を自動的に学習することに多くの注意を払っている。
本研究では,畳み込みニューラルネットワーク(CNN)のキーコンポーネントをサブスペースの概念と組み合わせたマルチサブスペースニューラルネットワーク(MSNN)を提案する。
論文 参考訳(メタデータ) (2020-06-17T02:55:34Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。