論文の概要: STD-NET: Search of Image Steganalytic Deep-learning Architecture via
Hierarchical Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2206.05651v1
- Date: Sun, 12 Jun 2022 03:46:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 16:59:17.761866
- Title: STD-NET: Search of Image Steganalytic Deep-learning Architecture via
Hierarchical Tensor Decomposition
- Title(参考訳): std-net:階層的テンソル分解による画像ステガナリシス型ディープラーニングアーキテクチャの探索
- Authors: Shunquan Tan and Qiushi Li and Laiyuan Li and Bin Li and Jiwu Huang
- Abstract要約: STD-NETは階層的テンソル分解による教師なしディープラーニングアーキテクチャ探索手法である。
提案手法は,従来のステガナティックネットワーク圧縮法に比べて効率が高く,冗長性も高い。
- 参考スコア(独自算出の注目度): 40.997546601209145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies shows that the majority of existing deep steganalysis models
have a large amount of redundancy, which leads to a huge waste of storage and
computing resources. The existing model compression method cannot flexibly
compress the convolutional layer in residual shortcut block so that a
satisfactory shrinking rate cannot be obtained. In this paper, we propose
STD-NET, an unsupervised deep-learning architecture search approach via
hierarchical tensor decomposition for image steganalysis. Our proposed strategy
will not be restricted by various residual connections, since this strategy
does not change the number of input and output channels of the convolution
block. We propose a normalized distortion threshold to evaluate the sensitivity
of each involved convolutional layer of the base model to guide STD-NET to
compress target network in an efficient and unsupervised approach, and obtain
two network structures of different shapes with low computation cost and
similar performance compared with the original one. Extensive experiments have
confirmed that, on one hand, our model can achieve comparable or even better
detection performance in various steganalytic scenarios due to the great
adaptivity of the obtained network architecture. On the other hand, the
experimental results also demonstrate that our proposed strategy is more
efficient and can remove more redundancy compared with previous steganalytic
network compression methods.
- Abstract(参考訳): 最近の研究では、既存の深部ステガナリシスモデルの大部分は大量の冗長性を有しており、ストレージやコンピューティングリソースの膨大な無駄につながることが示されている。
既存のモデル圧縮方法は、残留ショートカットブロックの畳み込み層を柔軟に圧縮することができず、良好な縮小率を得ることができない。
本稿では,画像ステガナリシスのための階層的テンソル分解による教師なしディープラーニングアーキテクチャ探索手法STD-NETを提案する。
提案手法は,畳み込みブロックの入力チャネル数や出力チャネル数を変化させないため,残差接続では制限されない。
提案手法は,STD-NETを効率よく,かつ教師なしの方法で対象ネットワークを圧縮するための基本モデルの各畳み込み層の感度を評価するための正規化歪み閾値であり,計算コストが低く,性能が類似する2つの異なる形状のネットワーク構造が得られる。
広範な実験により,ネットワークアーキテクチャの適応性が高いため,様々なステガナリシスシナリオにおいて,モデルが同等あるいはさらに優れた検出性能を達成できることが確認された。
一方,提案手法は従来のステガナリシスネットワーク圧縮法に比べて効率が良く冗長性が向上することを示す実験結果が得られた。
関連論文リスト
- GFN: A graph feedforward network for resolution-invariant reduced operator learning in multifidelity applications [0.0]
本研究は,多忠実度アプリケーションのための新しい分解能不変モデルオーダー削減戦略を提案する。
我々はこの研究で開発された新しいニューラルネットワーク層、グラフフィードフォワードネットワークに基づいてアーキテクチャを構築した。
パラメトリックな偏微分方程式に対する自己エンコーダに基づく還元戦略において,異なるメッシュサイズでのトレーニングとテストの能力を利用する。
論文 参考訳(メタデータ) (2024-06-05T18:31:37Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Neural Network Compression via Effective Filter Analysis and
Hierarchical Pruning [41.19516938181544]
現在のネットワーク圧縮法には、最大圧縮率を推定する理論的な枠組みが欠如している。
本研究では,ネットワークの最大冗長性を推定するための勾配行列特異点解析に基づく手法を提案する。
この最大速度で導かれ,ネットワーク性能を犠牲にすることなく,ニューロンネットワーク構造を最大化するために,新規で効率的な階層型ネットワークプルーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-07T21:30:47Z) - STN: Scalable Tensorizing Networks via Structure-Aware Training and
Adaptive Compression [10.067082377396586]
本稿では,モデルサイズと分解構造を適応的に調整するスケーラビリティネットワーク(STN)を提案する。
STNは任意のネットワークアーキテクチャと互換性があり、他のテンソル化バージョンよりも高い圧縮性能と柔軟性を実現する。
論文 参考訳(メタデータ) (2022-05-30T15:50:48Z) - Image Superresolution using Scale-Recurrent Dense Network [30.75380029218373]
畳み込みニューラルネットワーク(CNN)の設計の最近の進歩は、画像超解像(SR)の性能を大幅に向上させた。
残差ブロック内の一連の密接な接続を含む単位上に構築されたスケールリカレントSRアーキテクチャを提案する(Residual Dense Blocks (RDBs))。
我々のスケールリカレント設計は、現在の最先端のアプローチに比べてパラメトリックに効率的でありながら、より高いスケール要因の競合性能を提供する。
論文 参考訳(メタデータ) (2022-01-28T09:18:43Z) - Low-rank Tensor Decomposition for Compression of Convolutional Neural
Networks Using Funnel Regularization [1.8579693774597708]
低ランクテンソル分解を用いた事前学習ネットワークを圧縮するモデル削減手法を提案する。
圧縮中の重要でない要因を抑えるために, ファンネル関数と呼ばれる新しい正規化法を提案する。
ImageNet2012のResNet18では、GMACの精度は0.7%に過ぎず、Top-1の精度はわずかに低下する。
論文 参考訳(メタデータ) (2021-12-07T13:41:51Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。