論文の概要: Green Steganalyzer: A Green Learning Approach to Image Steganalysis
- arxiv url: http://arxiv.org/abs/2306.04008v1
- Date: Tue, 6 Jun 2023 20:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:07:21.477974
- Title: Green Steganalyzer: A Green Learning Approach to Image Steganalysis
- Title(参考訳): Green Steganalyzer: 画像ステガナリシスのためのグリーンラーニングアプローチ
- Authors: Yao Zhu, Xinyu Wang, Hong-Shuo Chen, Ronald Salloum, C.-C. Jay Kuo
- Abstract要約: Green Steganalyzer (GS)は、グリーンラーニングパラダイムに基づいた画像ステガナリシスの学習ソリューションである。
GSは3つのモジュールで構成されている: ピクセルベースの異常予測、2)埋め込み位置検出、3)画像レベルの検出のための決定融合である。
- 参考スコア(独自算出の注目度): 30.486433532000344
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: A novel learning solution to image steganalysis based on the green learning
paradigm, called Green Steganalyzer (GS), is proposed in this work. GS consists
of three modules: 1) pixel-based anomaly prediction, 2) embedding location
detection, and 3) decision fusion for image-level detection. In the first
module, GS decomposes an image into patches, adopts Saab transforms for feature
extraction, and conducts self-supervised learning to predict an anomaly score
of their center pixel. In the second module, GS analyzes the anomaly scores of
a pixel and its neighborhood to find pixels of higher embedding probabilities.
In the third module, GS focuses on pixels of higher embedding probabilities and
fuses their anomaly scores to make final image-level classification. Compared
with state-of-the-art deep-learning models, GS achieves comparable detection
performance against S-UNIWARD, WOW and HILL steganography schemes with
significantly lower computational complexity and a smaller model size, making
it attractive for mobile/edge applications. Furthermore, GS is mathematically
transparent because of its modular design.
- Abstract(参考訳): グリーンステガナライザー(GS)と呼ばれるグリーンラーニングパラダイムに基づく画像ステガナリシスのための新しい学習ソリューションが本研究で提案されている。
gsは3つのモジュールからなる。
1)画素に基づく異常予測
2)埋め込み位置検出,及び
3)画像レベル検出のための決定融合
最初のモジュールでは、GSはイメージをパッチに分解し、特徴抽出のためにSaab変換を採用し、中央ピクセルの異常スコアを予測するために自己教師付き学習を行う。
第2のモジュールでは、gsは画素とその近傍の異常スコアを分析し、より高い埋め込み確率の画素を見つける。
第3のモジュールでは、GSは高い埋め込み確率のピクセルに焦点を当て、その異常スコアを融合して最終的な画像レベルの分類を行う。
最先端のディープラーニングモデルと比較すると、GSはS-UNIWARD、WOW、HILLのステガノグラフィースキームに対して、計算複雑性が著しく低く、モデルサイズも小さく、モバイル/エッジアプリケーションにとって魅力的な検出性能を実現している。
さらに、GSはモジュラー設計のため数学的に透明である。
関連論文リスト
- GS2Pose: Two-stage 6D Object Pose Estimation Guided by Gaussian Splatting [4.465134753953128]
本稿では,GS2Pose と呼ばれる新しい物体の高精度でロバストな6次元ポーズ推定法を提案する。
GS2Poseは3次元ガウススプラッティングを導入することで,高品質CADモデルを必要とせずに再構成結果を利用することができる。
GS2Poseのコードは、間もなくGitHubでリリースされる。
論文 参考訳(メタデータ) (2024-11-06T10:07:46Z) - GS-Net: Generalizable Plug-and-Play 3D Gaussian Splatting Module [19.97023389064118]
粗いSfM点雲からガウス楕円体を密度化する3DGSモジュールであるGS-Netを提案する。
実験により、GS-Netを3DGSに適用すると、従来の視点では2.08dB、新しい視点では1.86dBのPSNR改善が得られることが示された。
論文 参考訳(メタデータ) (2024-09-17T16:03:19Z) - ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - Superpixel Graph Contrastive Clustering with Semantic-Invariant
Augmentations for Hyperspectral Images [64.72242126879503]
ハイパースペクトル画像(HSI)クラスタリングは重要な課題だが難しい課題である。
まず3次元と2次元のハイブリッド畳み込みニューラルネットワークを用いてHSIの高次空間およびスペクトルの特徴を抽出する。
次に,超画素グラフの対比クラスタリングモデルを設計し,識別的超画素表現を学習する。
論文 参考訳(メタデータ) (2024-03-04T07:40:55Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - SSG2: A new modelling paradigm for semantic segmentation [0.0]
セグメンテーションにおける最先端モデルは、単一の静的イメージで動作し、対応するセグメンテーションマスクを生成する。
セマンティック・チェンジ検出の研究から着想を得て,各静的な入力画像に対して生成した可観測物のシーケンスを活用する手法を提案する。
この「時間的」次元を追加することで、シーケンス内の連続した観測間の強い信号相関を利用してエラー率を減少させる。
オーストラリア・ダーウィンのUrbanMonitorは5つのスペクトルバンドと0.2mの空間解像度を持つ正像タイルを特徴とし、ISPRS Potsdamは複数のスペクトルバンドと5cmの地中サンプリングを含む真の正像画像を含む。
論文 参考訳(メタデータ) (2023-10-12T19:08:03Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - A-PixelHop: A Green, Robust and Explainable Fake-Image Detector [27.34087987867584]
本稿では,CNN生成画像を検出する新しい手法であるAttentive PixelHop(A-PixelHop)を提案する。
1)低い計算複雑性と小さなモデルサイズ、2)幅広い生成モデルに対する高い検出性能、3)数学的透明性の3つの利点がある。
論文 参考訳(メタデータ) (2021-11-07T06:31:26Z) - Self-supervised Geometric Perception [96.89966337518854]
自己教師付き幾何知覚(self-supervised geometric perception)は、基底幾何モデルラベルなしで対応マッチングのための特徴記述子を学ぶためのフレームワークである。
また,SGPは,地上トラスラベルを用いて訓練した教師付きオークルよりも同等か優れる最先端性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:34:43Z) - Uncertainty Inspired RGB-D Saliency Detection [70.50583438784571]
本稿では,データラベリングプロセスから学習することで,RGB-D値検出の不確実性を利用した最初のフレームワークを提案する。
そこで本研究では,確率的RGB-Dサリエンシ検出を実現するために,サリエンシデータラベリングプロセスにインスパイアされた生成アーキテクチャを提案する。
6つの挑戦的RGB-Dベンチマークデータセットの結果から,サリエンシマップの分布を学習する際のアプローチの優れた性能が示された。
論文 参考訳(メタデータ) (2020-09-07T13:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。