論文の概要: Neural Sparse Representation for Image Restoration
- arxiv url: http://arxiv.org/abs/2006.04357v1
- Date: Mon, 8 Jun 2020 05:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 02:03:10.057716
- Title: Neural Sparse Representation for Image Restoration
- Title(参考訳): 画像復元のためのニューラルスパース表現
- Authors: Yuchen Fan, Jiahui Yu, Yiqun Mei, Yulun Zhang, Yun Fu, Ding Liu,
Thomas S. Huang
- Abstract要約: スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
- 参考スコア(独自算出の注目度): 116.72107034624344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the robustness and efficiency of sparse representation in sparse
coding based image restoration models, we investigate the sparsity of neurons
in deep networks. Our method structurally enforces sparsity constraints upon
hidden neurons. The sparsity constraints are favorable for gradient-based
learning algorithms and attachable to convolution layers in various networks.
Sparsity in neurons enables computation saving by only operating on non-zero
components without hurting accuracy. Meanwhile, our method can magnify
representation dimensionality and model capacity with negligible additional
computation cost. Experiments show that sparse representation is crucial in
deep neural networks for multiple image restoration tasks, including image
super-resolution, image denoising, and image compression artifacts removal.
Code is available at https://github.com/ychfan/nsr
- Abstract(参考訳): 疎符号化に基づく画像復元モデルにおけるスパース表現の堅牢性と効率に着想を得て,ディープネットワークにおけるニューロンの空間性を検討した。
本手法は隠れたニューロンに空間的制約を課す。
スパルシリティ制約は勾配に基づく学習アルゴリズムに好適であり、様々なネットワークの畳み込み層にアタッチできる。
ニューロンのスパーシティは、精度を損なうことなくゼロでないコンポーネントのみを操作することで、計算の節約を可能にする。
一方,本手法では,表現の次元とモデル容量を,計算コストを考慮せずに増大させることができる。
実験により、画像のスーパーレゾリューション、画像のノイズ除去、画像圧縮アーティファクトの除去など、複数の画像復元タスクにおいてスパース表現が重要であることが示されている。
コードはhttps://github.com/ychfan/nsrで入手できる。
関連論文リスト
- Extreme Compression of Adaptive Neural Images [6.646501936980895]
Implicit Neural Representation(INR)とNeural Fieldsは、画像やオーディオから3Dシーン、ビデオまで、信号表現のための新しいパラダイムである。
本稿では、画像に焦点をあてて、ニューラルネットワークの圧縮に関する新しい分析法を提案する。
また、異なる推論や伝送要求への適応を可能にする効率的なニューラルネットワーク表現であるAdaptive Neural Images (ANI)を導入する。
論文 参考訳(メタデータ) (2024-05-27T03:54:09Z) - A Deep Learning-based Compression and Classification Technique for Whole
Slide Histopathology Images [0.31498833540989407]
我々は、ニューラルネットワークのアンサンブルを構築し、圧縮オートエンコーダを教師付き方式で、入力されたヒストロジー画像のより密度が高くより意味のある表現を維持することができる。
転送学習に基づく分類器を用いて圧縮画像を検証し、有望な精度と分類性能を示すことを示す。
論文 参考訳(メタデータ) (2023-05-11T22:20:05Z) - The Brain-Inspired Decoder for Natural Visual Image Reconstruction [4.433315630787158]
本研究では,スパイクトレインの視覚的イメージを再構築するために,生物学的特性を持つディープラーニングニューラルネットワークアーキテクチャを提案する。
私たちのモデルは、ニューラルスパイクトから画像へのエンドツーエンドデコーダです。
提案手法は,画像の再構成に知覚的特徴を効果的に組み合わせることができることを示す。
論文 参考訳(メタデータ) (2022-07-18T13:31:26Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Pyramid Attention Networks for Image Restoration [124.34970277136061]
自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
論文 参考訳(メタデータ) (2020-04-28T21:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。