論文の概要: StegColNet: Steganalysis based on an ensemble colorspace approach
- arxiv url: http://arxiv.org/abs/2002.02413v2
- Date: Fri, 16 Oct 2020 16:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:24:15.088795
- Title: StegColNet: Steganalysis based on an ensemble colorspace approach
- Title(参考訳): StegColNet: アンサンブルカラースペースアプローチに基づくステガナリシス
- Authors: Shreyank N Gowda, Chun Yuan
- Abstract要約: 画像ステガノグラフィー(英: Image steganography)とは、画像中に情報を隠蔽する過程のこと。
我々は、アンサンブルカラー空間モデルを用いて重み付けされた特徴活性化マップを得るステガナリシス手法を提案する。
次に、これらの機能を使用して、イメージを2つのクラスのうちの1つに分類します。
- 参考スコア(独自算出の注目度): 22.732023268348787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image steganography refers to the process of hiding information inside
images. Steganalysis is the process of detecting a steganographic image. We
introduce a steganalysis approach that uses an ensemble color space model to
obtain a weighted concatenated feature activation map. The concatenated map
helps to obtain certain features explicit to each color space. We use a
levy-flight grey wolf optimization strategy to reduce the number of features
selected in the map. We then use these features to classify the image into one
of two classes: whether the given image has secret information stored or not.
Extensive experiments have been done on a large scale dataset extracted from
the Bossbase dataset. Also, we show that the model can be transferred to
different datasets and perform extensive experiments on a mixture of datasets.
Our results show that the proposed approach outperforms the recent state of the
art deep learning steganalytical approaches by 2.32 percent on average for 0.2
bits per channel (bpc) and 1.87 percent on average for 0.4 bpc.
- Abstract(参考訳): 画像ステガノグラフィ(image steganography)とは、画像の中に情報を隠す過程のこと。
ステガナリシスは、ステガナリシス画像を検出する過程である。
我々は,アンサンブル色空間モデルを用いて重み付き連結特徴活性化マップを得るステガナリシス手法を提案する。
連結写像は各色空間に明示的な特徴を得るのに役立つ。
我々は、この地図で選択した特徴量を減らすために、レビーフライグレーオオカミ最適化戦略を用いる。
次に、これらの機能を使用して、イメージを2つのクラスのうちの1つに分類します。
bossbaseデータセットから抽出した大規模データセットで大規模な実験が行われている。
また、モデルを異なるデータセットに転送し、データセットの混合に対して広範な実験を行うことも示す。
提案手法は, 平均0.2ビット (bpc) , 平均1.87パーセント (0.4bpc) で平均2.32パーセント向上した。
関連論文リスト
- Depth-Guided Semi-Supervised Instance Segmentation [62.80063539262021]
Semi-Supervised Instance (SSIS)は、トレーニング中にラベルなしデータの量を活用することを目的としている。
従来のフレームワークは主に、ラベルなし画像のRGB情報を利用して擬似ラベルを生成する。
この制限を克服するために、Depth-Guided (DG)フレームワークを導入します。
論文 参考訳(メタデータ) (2024-06-25T09:36:50Z) - Leveraging the Third Dimension in Contrastive Learning [88.17394309208925]
SSL(Self-Supervised Learning)メソッドは、ラベルのないデータでダウンストリームタスクに有用な堅牢な表現を学習する。
これらの拡張は、生物学的ビジョンが没入的な3次元、時間的に連続した環境で起こるという事実を無視している。
SSLフレームワークにディープシグナルを組み込むための2つの異なるアプローチについて検討する。
論文 参考訳(メタデータ) (2023-01-27T15:45:03Z) - Improving Sketch Colorization using Adversarial Segmentation Consistency [12.55972766570669]
スケッチからカラー画像を生成する新しい手法を提案する。
汎用パノプティカルセグメンテーションネットワークからのセマンティックイメージセグメンテーションを利用して、新たな対向損失関数を生成する。
本手法はセグメンテーションラベル付きデータセットに限らず,非ペア翻訳にも適用可能である。
論文 参考訳(メタデータ) (2023-01-20T14:07:30Z) - Scrape, Cut, Paste and Learn: Automated Dataset Generation Applied to
Parcel Logistics [58.720142291102135]
4つのステップでインスタンスセグメンテーションのための合成データセットを生成するために,完全に自動化されたパイプラインを提案する。
まず、人気のある画像検索エンジンから興味ある対象の画像を抽出する。
画像選択には,オブジェクトに依存しない事前処理,手動画像選択,CNNに基づく画像選択の3つの方法を比較する。
論文 参考訳(メタデータ) (2022-10-18T12:49:04Z) - Multiscale Analysis for Improving Texture Classification [62.226224120400026]
本稿では,テクスチャの異なる空間周波数帯域を別々に扱うために,ガウス・ラプラシアピラミッドを用いる。
バイオインスパイアされたテクスチャ記述子,情報理論測度,灰色レベルの共起行列特徴,ハリリック統計特徴から抽出した特徴を特徴ベクトルに集約した。
論文 参考訳(メタデータ) (2022-04-21T01:32:22Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - Universal Deep Network for Steganalysis of Color Image based on Channel
Representation [41.86330101334733]
我々は空間領域とJPEG領域における普遍的なカラー画像ステガナリシスネットワーク(UCNet)を設計する。
提案手法は前処理,畳み込み,分類モジュールを含む。
本研究では, ALASKA II に関する広範囲な実験を行い, 提案手法が最先端の成果を得られることを示す。
論文 参考訳(メタデータ) (2021-11-24T02:22:13Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Anatomical Data Augmentation via Fluid-based Image Registration [23.280420626023755]
医用画像解析のための流体画像強調法を提案する。
既存の手法とは対照的に,我々のフレームワークは測地線部分空間を介して有意義な画像を生成する。
論文 参考訳(メタデータ) (2020-07-05T21:06:00Z) - BitMix: Data Augmentation for Image Steganalysis [10.475451920008203]
画像ステガナシスのためのCNNは、高レベルの視覚タスクの概念を採用することで、より良いパフォーマンスを示す。
メッセージ埋め込みを損なうことなく、データを増大させるため、ステガナリシスでは、90度の回転数または水平反転数のみを使用する。
空間画像ステガナリシスのためのデータ拡張法BitMixを提案する。
論文 参考訳(メタデータ) (2020-06-30T09:36:21Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。