論文の概要: Using contrastive learning to improve the performance of steganalysis
schemes
- arxiv url: http://arxiv.org/abs/2103.00891v1
- Date: Mon, 1 Mar 2021 10:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 00:44:31.382075
- Title: Using contrastive learning to improve the performance of steganalysis
schemes
- Title(参考訳): コントラスト学習を用いたseg analysis schemeの性能向上
- Authors: Yanzhen Ren, Yiwen Liu, Lina Wang
- Abstract要約: 本稿では,steg analysis contrastive framework (scf) を提案する。
SCFは、異なるカテゴリの特徴間の距離を最大化することにより、ステガナリシスの特徴表現を改善する。
類似性の等価性と推移性に基づいて、新しいStegCL(Steganalysis Contrastive Loss)を設計する。
- 参考スコア(独自算出の注目度): 18.80275095172112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To improve the detection accuracy and generalization of steganalysis, this
paper proposes the Steganalysis Contrastive Framework (SCF) based on
contrastive learning. The SCF improves the feature representation of
steganalysis by maximizing the distance between features of samples of
different categories and minimizing the distance between features of samples of
the same category. To decrease the computing complexity of the contrastive loss
in supervised learning, we design a novel Steganalysis Contrastive Loss
(StegCL) based on the equivalence and transitivity of similarity. The StegCL
eliminates the redundant computing in the existing contrastive loss. The
experimental results show that the SCF improves the generalization and
detection accuracy of existing steganalysis DNNs, and the maximum promotion is
2% and 3% respectively. Without decreasing the detection accuracy, the training
time of using the StegCL is 10% of that of using the contrastive loss in
supervised learning.
- Abstract(参考訳): ステガナリシスの検出精度と一般化を改善するために,コントラスト学習に基づくステガナリシス比較フレームワーク(SCF)を提案する。
SCFは、異なるカテゴリのサンプルの特徴間の距離を最大化し、同じカテゴリのサンプルの特徴間の距離を最小化することにより、ステガナリシスの特徴表現を改善する。
教師付き学習における対照的な損失の計算複雑性を低減するため,類似性の等価性と推移性に基づく新しいステガナリシス・コントラシブ・ロス(StegCL)を設計する。
StegCLは、既存のコントラスト損失の冗長なコンピューティングを排除します。
実験の結果,SCFは既存のステガナリシスDNNの一般化と検出精度を改善し,最大プロモーションはそれぞれ2%と3%であることがわかった。
検出精度を低下させることなく、教師付き学習における対照損失を用いた場合のsegcl使用のトレーニング時間は10%である。
関連論文リスト
- Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - On Training Implicit Meta-Learning With Applications to Inductive
Weighing in Consistency Regularization [0.0]
暗黙的メタラーニング(IML)では、特にヘシアン(Hessian)の計算に2ドル(約2,200円)の勾配を必要とする。
ヘッセンの様々な近似が提案されたが、計算コスト、安定性、解の一般化、推定精度の体系的な比較はほとんど見過ごされてしまった。
本稿では,ドメイン固有の特徴を抽出するために,信頼ネットワークをトレーニングすることで,有用画像のアップウェイトや配布外サンプルのダウンウェイトを学べることを示す。
論文 参考訳(メタデータ) (2023-10-28T15:50:03Z) - Understanding Multimodal Contrastive Learning and Incorporating Unpaired
Data [19.72282903349282]
マルチモーダル・コントラッシブ・ラーニング(MMCL)における非線形損失関数の一般クラスを示す。
MMCLの特徴学習能力は,各モダリティに適用される一助的コントラスト学習能力よりも優れていることを示す。
追加の未ペアデータにアクセスできる場合、追加の未ペアデータを含む新たなMMCL損失を提案する。
論文 参考訳(メタデータ) (2023-02-13T10:11:05Z) - Leveraging Heteroscedastic Uncertainty in Learning Complex Spectral
Mapping for Single-channel Speech Enhancement [20.823177372464414]
ほとんどの音声強調(SE)モデルは、ポイント推定を学習し、学習過程における不確実性推定を利用しない。
本研究では,多変量ガウス陰性ログ類似度 (NLL) を最小化することにより,SE性能を余分なコストで向上させることにより,ヘテロスセダスティック不確実性をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-11-16T02:29:05Z) - Contrastive Bayesian Analysis for Deep Metric Learning [30.21464199249958]
特徴的類似性によって条件付けられた画像ラベルの後方確率を特徴付け,モデル化するために,コントラッシブなベイズ解析を開発した。
この対照的なベイズ解析は、深い計量学習のための新しい損失関数をもたらす。
実験結果とアブレーション実験により,提案手法は深層学習の性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-10-10T02:24:21Z) - MS Lesion Segmentation: Revisiting Weighting Mechanisms for Federated
Learning [92.91544082745196]
フェデレートラーニング(FL)は医用画像解析に広く用いられている。
FLのパフォーマンスは、多発性硬化症(MS)病変セグメンテーションタスクに制限される。
2つの効果的な再重み付け機構によるFLMS病変分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-03T14:06:03Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Performance Indicator in Multilinear Compressive Learning [106.12874293597754]
マルチリニア圧縮学習(MCL)フレームワークは,多次元信号を扱う際の知覚と学習のステップを効率的に最適化するために提案された。
本稿では,入力信号の分解能,圧縮された測定値数,MCLの学習性能の関係を解析する。
論文 参考訳(メタデータ) (2020-09-22T11:27:50Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。