論文の概要: A Lightweight Recurrent Learning Network for Sustainable Compressed
Sensing
- arxiv url: http://arxiv.org/abs/2304.11674v1
- Date: Sun, 23 Apr 2023 14:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 17:04:13.367712
- Title: A Lightweight Recurrent Learning Network for Sustainable Compressed
Sensing
- Title(参考訳): 持続的圧縮センシングのための軽量リカレント学習ネットワーク
- Authors: Yu Zhou, Yu Chen, Xiao Zhang, Pan Lai, Lei Huang, Jianmin Jiang
- Abstract要約: 持続可能なCSシステムを実現するために,繰り返し学習に基づく軽量だが効果的な深層ニューラルネットワークを提案する。
提案手法は,既存のCSアルゴリズムよりも再現性が高い。
- 参考スコア(独自算出の注目度): 27.964167481909588
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, deep learning-based compressed sensing (CS) has achieved great
success in reducing the sampling and computational cost of sensing systems and
improving the reconstruction quality. These approaches, however, largely
overlook the issue of the computational cost; they rely on complex structures
and task-specific operator designs, resulting in extensive storage and high
energy consumption in CS imaging systems. In this paper, we propose a
lightweight but effective deep neural network based on recurrent learning to
achieve a sustainable CS system; it requires a smaller number of parameters but
obtains high-quality reconstructions. Specifically, our proposed network
consists of an initial reconstruction sub-network and a residual reconstruction
sub-network. While the initial reconstruction sub-network has a hierarchical
structure to progressively recover the image, reducing the number of
parameters, the residual reconstruction sub-network facilitates recurrent
residual feature extraction via recurrent learning to perform both feature
fusion and deep reconstructions across different scales. In addition, we also
demonstrate that, after the initial reconstruction, feature maps with reduced
sizes are sufficient to recover the residual information, and thus we achieved
a significant reduction in the amount of memory required. Extensive experiments
illustrate that our proposed model can achieve a better reconstruction quality
than existing state-of-the-art CS algorithms, and it also has a smaller number
of network parameters than these algorithms. Our source codes are available at:
https://github.com/C66YU/CSRN.
- Abstract(参考訳): 近年、深層学習に基づく圧縮センシング(cs)は、センシングシステムのサンプリングと計算コストの削減と再構成品質の向上に成功している。
しかし、これらのアプローチは計算コストの問題を概ね見落としており、複雑な構造やタスク固有の演算子設計に依存しており、CSイメージングシステムにおいて大量のストレージと高エネルギー消費をもたらす。
本稿では,持続可能なCSシステムを実現するために,繰り返し学習に基づく軽量かつ効果的な深層ニューラルネットワークを提案する。
具体的には,初期再構築サブネットワークと残存再構築サブネットワークから構成される。
初期再構成サブネットワークは階層構造を有し、パラメータ数を削減し、画像の段階的な復元を行うが、残差再構築サブネットワークは、再帰学習による再帰的特徴抽出を容易にし、異なるスケールで特徴融合と深い再構成の両方を行う。
また,初期再構成後,サイズを小さくした特徴写像は残余情報を復元するのに十分であり,必要なメモリ量を大幅に削減できることを示した。
大規模な実験により,提案手法は既存のCSアルゴリズムよりも再現性が高く,ネットワークパラメータもこれらのアルゴリズムより少ないことがわかった。
ソースコードはhttps://github.com/c66yu/csrn.com/。
関連論文リスト
- MsDC-DEQ-Net: Deep Equilibrium Model (DEQ) with Multi-scale Dilated
Convolution for Image Compressive Sensing (CS) [0.0]
圧縮センシング(CS)は、従来のサンプリング法よりも少ない測定値を用いてスパース信号の回復を可能にする技術である。
我々はCSを用いた自然画像再構成のための解釈可能かつ簡潔なニューラルネットワークモデルを構築した。
MsDC-DEQ-Netと呼ばれるこのモデルは、最先端のネットワークベースの手法と比較して、競争力のある性能を示す。
論文 参考訳(メタデータ) (2024-01-05T16:25:58Z) - SST-ReversibleNet: Reversible-prior-based Spectral-Spatial Transformer
for Efficient Hyperspectral Image Reconstruction [15.233185887461826]
Reversible-prior-based methodと呼ばれる新しいフレームワークが提案されている。
ReversibleNetは、シミュレートされた実HSIデータセットの最先端メソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-05-06T14:01:02Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - JSRNN: Joint Sampling and Reconstruction Neural Networks for High
Quality Image Compressed Sensing [8.902545322578925]
提案フレームワークには,サンプリングサブネットワークと再構築サブネットワークという2つのサブネットワークが含まれている。
再構成サブネットワークでは、スタックド・デノイング・オートエンコーダ(SDA)と畳み込みニューラルネットワーク(CNN)を組み合わせたカスケードネットワークが信号の再構成のために設計されている。
このフレームワークは、特にサンプリングレートの低い他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-11-11T02:20:30Z) - Structured Sparsity Learning for Efficient Video Super-Resolution [99.1632164448236]
我々は、ビデオ超解像(VSR)モデルの特性に応じて、構造化スパシティ学習(SSL)と呼ばれる構造化プルーニング手法を開発する。
SSLでは,残差ブロック,リカレントネットワーク,アップサンプリングネットワークなど,VSRモデルのいくつかの重要なコンポーネントに対するプルーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-06-15T17:36:04Z) - Sparse-View CT Reconstruction using Recurrent Stacked Back Projection [3.91278924473622]
Recurrent Stacked Back Projection (RSBP) と呼ばれる直接再構成手法を導入する。
RSBPは、反復的な畳み込みLSTMネットワークへの入力として、個々のビューの逐次的に取得されたバックプロジェクションを使用する。
本研究では,FBP画像の処理後処理と基本MBIRの処理後処理において,計算コストがMBIRよりも低くなることを実証する。
論文 参考訳(メタデータ) (2021-12-09T15:44:35Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Sub-Pixel Back-Projection Network For Lightweight Single Image
Super-Resolution [17.751425965791718]
我々は,CNNに基づくSISR手法のパラメータ数と計算コストの削減について検討した。
SISRのための新しいネットワークアーキテクチャを導入し、再構成品質と低計算量とのトレードオフをうまく打ち立てる。
論文 参考訳(メタデータ) (2020-08-03T18:15:16Z) - Attention Based Real Image Restoration [48.933507352496726]
深層畳み込みニューラルネットワークは、合成劣化を含む画像に対してより良い性能を発揮する。
本稿では,新しい1段ブラインド実画像復元ネットワーク(R$2$Net)を提案する。
論文 参考訳(メタデータ) (2020-04-26T04:21:49Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。