論文の概要: Green Steganalyzer: A Green Learning Approach to Image Steganalysis
- arxiv url: http://arxiv.org/abs/2306.04008v1
- Date: Tue, 6 Jun 2023 20:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:07:21.477974
- Title: Green Steganalyzer: A Green Learning Approach to Image Steganalysis
- Title(参考訳): Green Steganalyzer: 画像ステガナリシスのためのグリーンラーニングアプローチ
- Authors: Yao Zhu, Xinyu Wang, Hong-Shuo Chen, Ronald Salloum, C.-C. Jay Kuo
- Abstract要約: Green Steganalyzer (GS)は、グリーンラーニングパラダイムに基づいた画像ステガナリシスの学習ソリューションである。
GSは3つのモジュールで構成されている: ピクセルベースの異常予測、2)埋め込み位置検出、3)画像レベルの検出のための決定融合である。
- 参考スコア(独自算出の注目度): 30.486433532000344
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: A novel learning solution to image steganalysis based on the green learning
paradigm, called Green Steganalyzer (GS), is proposed in this work. GS consists
of three modules: 1) pixel-based anomaly prediction, 2) embedding location
detection, and 3) decision fusion for image-level detection. In the first
module, GS decomposes an image into patches, adopts Saab transforms for feature
extraction, and conducts self-supervised learning to predict an anomaly score
of their center pixel. In the second module, GS analyzes the anomaly scores of
a pixel and its neighborhood to find pixels of higher embedding probabilities.
In the third module, GS focuses on pixels of higher embedding probabilities and
fuses their anomaly scores to make final image-level classification. Compared
with state-of-the-art deep-learning models, GS achieves comparable detection
performance against S-UNIWARD, WOW and HILL steganography schemes with
significantly lower computational complexity and a smaller model size, making
it attractive for mobile/edge applications. Furthermore, GS is mathematically
transparent because of its modular design.
- Abstract(参考訳): グリーンステガナライザー(GS)と呼ばれるグリーンラーニングパラダイムに基づく画像ステガナリシスのための新しい学習ソリューションが本研究で提案されている。
gsは3つのモジュールからなる。
1)画素に基づく異常予測
2)埋め込み位置検出,及び
3)画像レベル検出のための決定融合
最初のモジュールでは、GSはイメージをパッチに分解し、特徴抽出のためにSaab変換を採用し、中央ピクセルの異常スコアを予測するために自己教師付き学習を行う。
第2のモジュールでは、gsは画素とその近傍の異常スコアを分析し、より高い埋め込み確率の画素を見つける。
第3のモジュールでは、GSは高い埋め込み確率のピクセルに焦点を当て、その異常スコアを融合して最終的な画像レベルの分類を行う。
最先端のディープラーニングモデルと比較すると、GSはS-UNIWARD、WOW、HILLのステガノグラフィースキームに対して、計算複雑性が著しく低く、モデルサイズも小さく、モバイル/エッジアプリケーションにとって魅力的な検出性能を実現している。
さらに、GSはモジュラー設計のため数学的に透明である。
関連論文リスト
- Generalized and Efficient 2D Gaussian Splatting for Arbitrary-scale Super-Resolution [10.074968164380314]
Inlicit Neural Representation (INR) は、任意スケール超解法 (ASR) に成功している
各ピクセルをレンダリングするために、何度もクエリするのは計算コストがかかる。
近年,Gaussian Splatting (GS)は3次元タスクの視覚的品質とレンダリング速度の両方において,INRよりも優位性を示している。
論文 参考訳(メタデータ) (2025-01-12T15:14:58Z) - GS2Pose: Two-stage 6D Object Pose Estimation Guided by Gaussian Splatting [4.465134753953128]
本稿では,GS2Pose と呼ばれる新しい物体の高精度でロバストな6次元ポーズ推定法を提案する。
GS2Poseは3次元ガウススプラッティングを導入することで,高品質CADモデルを必要とせずに再構成結果を利用することができる。
GS2Poseのコードは、間もなくGitHubでリリースされる。
論文 参考訳(メタデータ) (2024-11-06T10:07:46Z) - GS-Net: Generalizable Plug-and-Play 3D Gaussian Splatting Module [19.97023389064118]
粗いSfM点雲からガウス楕円体を密度化する3DGSモジュールであるGS-Netを提案する。
実験により、GS-Netを3DGSに適用すると、従来の視点では2.08dB、新しい視点では1.86dBのPSNR改善が得られることが示された。
論文 参考訳(メタデータ) (2024-09-17T16:03:19Z) - ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - Superpixel Graph Contrastive Clustering with Semantic-Invariant
Augmentations for Hyperspectral Images [64.72242126879503]
ハイパースペクトル画像(HSI)クラスタリングは重要な課題だが難しい課題である。
まず3次元と2次元のハイブリッド畳み込みニューラルネットワークを用いてHSIの高次空間およびスペクトルの特徴を抽出する。
次に,超画素グラフの対比クラスタリングモデルを設計し,識別的超画素表現を学習する。
論文 参考訳(メタデータ) (2024-03-04T07:40:55Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - A-PixelHop: A Green, Robust and Explainable Fake-Image Detector [27.34087987867584]
本稿では,CNN生成画像を検出する新しい手法であるAttentive PixelHop(A-PixelHop)を提案する。
1)低い計算複雑性と小さなモデルサイズ、2)幅広い生成モデルに対する高い検出性能、3)数学的透明性の3つの利点がある。
論文 参考訳(メタデータ) (2021-11-07T06:31:26Z) - Self-supervised Geometric Perception [96.89966337518854]
自己教師付き幾何知覚(self-supervised geometric perception)は、基底幾何モデルラベルなしで対応マッチングのための特徴記述子を学ぶためのフレームワークである。
また,SGPは,地上トラスラベルを用いて訓練した教師付きオークルよりも同等か優れる最先端性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:34:43Z) - Uncertainty Inspired RGB-D Saliency Detection [70.50583438784571]
本稿では,データラベリングプロセスから学習することで,RGB-D値検出の不確実性を利用した最初のフレームワークを提案する。
そこで本研究では,確率的RGB-Dサリエンシ検出を実現するために,サリエンシデータラベリングプロセスにインスパイアされた生成アーキテクチャを提案する。
6つの挑戦的RGB-Dベンチマークデータセットの結果から,サリエンシマップの分布を学習する際のアプローチの優れた性能が示された。
論文 参考訳(メタデータ) (2020-09-07T13:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。