論文の概要: Onboard deep lossless and near-lossless predictive coding of hyperspectral images with line-based attention
- arxiv url: http://arxiv.org/abs/2403.17677v1
- Date: Tue, 26 Mar 2024 13:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 15:27:36.569459
- Title: Onboard deep lossless and near-lossless predictive coding of hyperspectral images with line-based attention
- Title(参考訳): 線量に基づくハイパースペクトル画像の深い損失とほぼロスレス予測符号化
- Authors: Diego Valsesia, Tiziano Bianchi, Enrico Magli,
- Abstract要約: 本稿では,LineRWKVと呼ばれるニューラルネットワークを設計する。
HySpecNet-11kデータセットとPRISMA画像による実験により、LineRWKVはCSDS-123.0-B-2より優れる最初のディープラーニング手法であることが示された。
また、7W組込みシステムでスループットを推定する。
- 参考スコア(独自算出の注目度): 24.876399066519294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods have traditionally been difficult to apply to compression of hyperspectral images onboard of spacecrafts, due to the large computational complexity needed to achieve adequate representational power, as well as the lack of suitable datasets for training and testing. In this paper, we depart from the traditional autoencoder approach and we design a predictive neural network, called LineRWKV, that works recursively line-by-line to limit memory consumption. In order to achieve that, we adopt a novel hybrid attentive-recursive operation that combines the representational advantages of Transformers with the linear complexity and recursive implementation of recurrent neural networks. The compression algorithm performs prediction of each pixel using LineRWKV, followed by entropy coding of the residual. Experiments on the HySpecNet-11k dataset and PRISMA images show that LineRWKV is the first deep-learning method to outperform CCSDS-123.0-B-2 at lossless and near-lossless compression. Promising throughput results are also evaluated on a 7W embedded system.
- Abstract(参考訳): 深層学習法は、適切な表現力を達成するのに必要な計算量が大きいことや、訓練やテストに適したデータセットが不足していることから、従来、宇宙船に搭載されたハイパースペクトル画像の圧縮に適用することは困難であった。
本稿では,従来のオートエンコーダのアプローチから脱却し,メモリ消費を制限するために再帰的に線形に動作するLineRWKVという予測ニューラルネットワークを設計する。
これを実現するために,トランスフォーマーの表現上の利点と線形複雑化と再帰的ニューラルネットワークの実装を組み合わせた,新しいハイブリッド注意再帰演算を採用した。
圧縮アルゴリズムはLineRWKVを用いて各画素の予測を行い、次に残像のエントロピー符号化を行う。
HySpecNet-11kデータセットとPRISMA画像による実験により、LineRWKVはCSDS-123.0-B-2を無損失でほぼロスレスな圧縮で上回る最初のディープラーニング手法であることが示された。
また、7W組込みシステムでスループットを推定する。
関連論文リスト
- Chain of Compression: A Systematic Approach to Combinationally Compress Convolutional Neural Networks [3.309813585671485]
畳み込みニューラルネットワーク(CNN)は非常に人気があるが、その計算とメモリの強度は、リソース制約の計算システムに課題をもたらす。
量子化、プルーニング、早期出口、知識蒸留といった多くのアプローチは、ニューラルネットワークの冗長性を減少させる効果を示している。
本稿では、ニューラルネットワークの圧縮にこれらの一般的な手法を適用するために、組み合わせシーケンスで動作する圧縮の連鎖を提案する。
論文 参考訳(メタデータ) (2024-03-26T07:26:00Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - JR2net: A Joint Non-Linear Representation and Recovery Network for
Compressive Spectral Imaging [22.0246327137227]
本研究は, 共同非線形表現・回復ネットワーク(JR2net)を提案する。
JR2netは、非線型な低次元表現を学習し、同時にスペクトル画像復元を行うADMM定式化に従って最適化されたネットワークで構成されている。
実験の結果,PSNRでは2.57dBまで向上し,2000倍の高速化を実現した。
論文 参考訳(メタデータ) (2022-05-16T15:48:42Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Exploring Structural Sparsity in Neural Image Compression [14.106763725475469]
本稿では,各コンボリューションチャネルの重要性を判定し,トレーニング中に空間性を導入するために,ABCM(プラグイン適応型バイナリチャネルマスキング)を提案する。
推論中、重要でないチャネルをプルーニングしてスリムネットワークを得る。
実験の結果,最大7倍の計算削減と3倍の加速は無視可能な性能低下で達成できることがわかった。
論文 参考訳(メタデータ) (2022-02-09T17:46:49Z) - An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems [73.48927855855219]
近年のディープラーニングの進歩により、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムが実現している。
本稿では,最近の最先端ハイブリッドニューラル圧縮アルゴリズムの大規模比較を行う。
論文 参考訳(メタデータ) (2022-01-27T19:47:51Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Neural Architecture Search for Efficient Uncalibrated Deep Photometric
Stereo [105.05232615226602]
差別化可能なニューラルアーキテクチャサーチ(NAS)戦略を利用して、非校正型PSアーキテクチャを自動的に見つける。
DiLiGenTデータセットの実験では、自動検索されたニューラルネットワークのパフォーマンスが、最先端の未校正PSメソッドと好適に比較されている。
論文 参考訳(メタデータ) (2021-10-11T21:22:17Z) - Self-supervised Neural Networks for Spectral Snapshot Compressive
Imaging [15.616674529295366]
我々は、訓練されていないニューラルネットワークを用いて、スナップショット圧縮画像(SCI)の再構成問題を解決することを検討する。
本稿では,DIP(Deep Image Priors)やディープデコーダ(Deep Decoder)といった未学習のニューラルネットワークにヒントを得て,DIPをプラグアンドプレイシステムに統合して,スペクトルSCI再構成のための自己教師型ネットワークを構築する。
論文 参考訳(メタデータ) (2021-08-28T14:17:38Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。