論文の概要: STCL:Curriculum learning Strategies for deep learning image steganography models
- arxiv url: http://arxiv.org/abs/2504.17609v1
- Date: Thu, 24 Apr 2025 14:34:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.407548
- Title: STCL:Curriculum learning Strategies for deep learning image steganography models
- Title(参考訳): STCL:ディープラーニング画像ステガノグラフィーモデルのためのカリキュラム学習戦略
- Authors: Fengchun Liu, Tong Zhang, Chunying Zhang,
- Abstract要約: 本稿では、ディープラーニング画像ステガノグラフィーモデルのためのステガノグラフィ学習訓練戦略(STCL)を提案する。
この戦略は、教師モデルに基づく難易度評価戦略と膝点に基づく訓練計画戦略とを含む。
ALASKA2,VOC2012,ImageNetの3つの大規模公開データセットに対する実験結果から,提案手法がモデル性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 8.251354931895667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aiming at the problems of poor quality of steganographic images and slow network convergence of image steganography models based on deep learning, this paper proposes a Steganography Curriculum Learning training strategy (STCL) for deep learning image steganography models. So that only easy images are selected for training when the model has poor fitting ability at the initial stage, and gradually expand to more difficult images, the strategy includes a difficulty evaluation strategy based on the teacher model and an knee point-based training scheduling strategy. Firstly, multiple teacher models are trained, and the consistency of the quality of steganographic images under multiple teacher models is used as the difficulty score to construct the training subsets from easy to difficult. Secondly, a training control strategy based on knee points is proposed to reduce the possibility of overfitting on small training sets and accelerate the training process. Experimental results on three large public datasets, ALASKA2, VOC2012 and ImageNet, show that the proposed image steganography scheme is able to improve the model performance under multiple algorithmic frameworks, which not only has a high PSNR, SSIM score, and decoding accuracy, but also the steganographic images generated by the model under the training of the STCL strategy have a low steganography analysis scores. You can find our code at \href{https://github.com/chaos-boops/STCL}{https://github.com/chaos-boops/STCL}.
- Abstract(参考訳): 本稿では,ディープラーニングに基づく画像ステガノグラフィーモデルの低品質化とネットワーク収束の遅い問題に着目し,ディープラーニング画像ステガノグラフィーモデルのためのステガノグラフィ・カリキュラム・トレーニング・ストラテジー(STCL)を提案する。
そのため、初段階での適合性に乏しい場合にのみ簡単な画像が選択され、徐々に難しい画像へと拡張されるため、教師モデルに基づく難易度評価戦略と膝点に基づく訓練計画戦略を含む。
まず、複数の教師モデルを訓練し、複数の教師モデルの下でのステガノグラフィー画像の品質の一貫性を、訓練サブセットを構築するのに難易度スコアとして利用する。
次に, 膝点に基づくトレーニング制御戦略を提案し, 小さなトレーニングセットに過度に適合する可能性を減らすとともに, トレーニングプロセスの高速化を図る。
ALASKA2,VOC2012,ImageNetの3つの大規模公開データセットによる実験結果から,提案手法はPSNR,SSIMスコア,復号精度だけでなく,STCLストラテジーのトレーニングによるモデルによって生成されたステガノグラフィー画像のスコアも低く,複数のアルゴリズムフレームワーク下でのモデル性能を向上させることができることが示された。
コードは \href{https://github.com/chaos-boops/STCL}{https://github.com/chaos-boops/STCL} にある。
関連論文リスト
- TSCL:Multi-party loss Balancing scheme for deep learning Image steganography based on Curriculum learning [0.3683202928838613]
深層学習画像ステガノグラフィーアルゴリズムにおける多項損失のバランスをとるための2段階学習損失スケジューラ(TSCL)を提案する。
ALASKA2、VOC2012、ImageNetの3つの大規模な公開データセットの実験結果から、提案したTSCL戦略は、ステガノグラフィーの品質、デコード精度、セキュリティを改善することが示された。
論文 参考訳(メタデータ) (2025-04-25T13:36:50Z) - Evolved Hierarchical Masking for Self-Supervised Learning [49.77271430882176]
既存のマスケ画像モデリング手法では、固定マスクパターンを適用して自己指導型トレーニングを指導する。
本稿では,自己教師型学習における一般的な視覚的手がかりモデリングを追求する階層型マスキング手法を提案する。
論文 参考訳(メタデータ) (2025-04-12T09:40:14Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - EfficientTrain++: Generalized Curriculum Learning for Efficient Visual Backbone Training [79.96741042766524]
訓練カリキュラムをソフトセレクション機能として再構築する。
自然画像の内容の露光は,データ拡張の強度によって容易に達成できることを示す。
結果のメソッドであるEfficientTrain++は単純で汎用的だが驚くほど効果的である。
論文 参考訳(メタデータ) (2024-05-14T17:00:43Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Curriculum Meta-Learning for Few-shot Classification [1.5039745292757671]
本稿では,最新のメタ学習技術に適用可能なカリキュラム学習フレームワークの適応性を提案する。
数発の画像分類タスクにおけるMAMLアルゴリズムによる実験は,カリキュラムの学習フレームワークにおいて有意な効果を示した。
論文 参考訳(メタデータ) (2021-12-06T10:29:23Z) - A novel three-stage training strategy for long-tailed classification [0.0]
長期分布データセットは、ディープラーニングに基づく分類モデルにとって大きな課題となる。
我々は,SAR画像データセットを長期分布で処理するための優れた3段階トレーニング戦略を確立した。
論文 参考訳(メタデータ) (2021-04-20T08:29:27Z) - Teacher-Critical Training Strategies for Image Captioning [12.245773188050618]
そこで本研究では,接頭辞と接頭辞とを橋渡しする教師モデルを提案する。
本稿では,字幕モデルの学習過程を改善するために,XEトレーニングとRLトレーニングの両方にTCTS(Teacher-Critical Training Strategies)を提案する。
論文 参考訳(メタデータ) (2020-09-30T03:15:12Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Dynamic Sampling for Deep Metric Learning [7.010669841466896]
深度メートル法学習は、視覚的に類似した画像を近くの場所にマッピングし、埋め込み多様体内の互いに視覚的に異なる画像を分離する。
トレーニングペアをネットワークに送受信し易い順に整理する動的サンプリング戦略を提案する。
これにより、ネットワークは、初期の簡単なトレーニングペアからカテゴリ間の一般的な境界を学習し、後のハードトレーニングサンプルに主に依存したモデルの詳細を確定することができる。
論文 参考訳(メタデータ) (2020-04-24T09:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。