論文の概要: WaveMixSR: A Resource-efficient Neural Network for Image
Super-resolution
- arxiv url: http://arxiv.org/abs/2307.00430v1
- Date: Sat, 1 Jul 2023 21:25:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 16:02:57.738179
- Title: WaveMixSR: A Resource-efficient Neural Network for Image
Super-resolution
- Title(参考訳): WaveMixSR:超高解像度画像のための資源効率ニューラルネットワーク
- Authors: Pranav Jeevan, Akella Srinidhi, Pasunuri Prathiba, Amit Sethi
- Abstract要約: 本稿では、WaveMixアーキテクチャに基づく画像超解像のための新しいニューラルネットワーク、WaveMixSRを提案する。
WaveMixSRは、すべてのデータセットで競合性能を達成し、複数の超解像度タスクでBSD100データセットで最先端のパフォーマンスに達する。
- 参考スコア(独自算出の注目度): 2.0477182014909205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image super-resolution research recently been dominated by transformer models
which need higher computational resources than CNNs due to the quadratic
complexity of self-attention. We propose a new neural network -- WaveMixSR --
for image super-resolution based on WaveMix architecture which uses a
2D-discrete wavelet transform for spatial token-mixing. Unlike
transformer-based models, WaveMixSR does not unroll the image as a sequence of
pixels/patches. It uses the inductive bias of convolutions along with the
lossless token-mixing property of wavelet transform to achieve higher
performance while requiring fewer resources and training data. We compare the
performance of our network with other state-of-the-art methods for image
super-resolution. Our experiments show that WaveMixSR achieves competitive
performance in all datasets and reaches state-of-the-art performance in the
BSD100 dataset on multiple super-resolution tasks. Our model is able to achieve
this performance using less training data and computational resources while
maintaining high parameter efficiency compared to current state-of-the-art
models.
- Abstract(参考訳): 画像の超解像の研究は、最近、cnnよりも高い計算資源を必要とするトランスフォーマーモデルに支配されている。
本稿では2次元離散ウェーブレット変換を空間トークン混合に用いるWaveMixアーキテクチャに基づく画像超解像のための新しいニューラルネットワークWaveMixSRを提案する。
トランスフォーマーベースのモデルとは異なり、wavemixsrは画像をピクセル/パッチのシーケンスとして展開しない。
畳み込みの帰納バイアスとウェーブレット変換の損失のないトークン混合特性を用いて、少ないリソースとトレーニングデータを必要としながら高い性能を達成する。
我々は,画像超解像のための他の最先端手法と比較した。
実験により、WaveMixSRは全てのデータセットで競合性能を達成し、複数の超解像タスクにおいてBSD100データセットで最先端のパフォーマンスに達することが示された。
本モデルでは,現在のモデルと比較して高いパラメータ効率を維持しつつ,少ないトレーニングデータと計算資源を用いて,この性能を実現することができる。
関連論文リスト
- WaveMixSR-V2: Enhancing Super-resolution with Higher Efficiency [4.093503153499691]
本稿では,従来の畳み込み層をピクセルシャッフル操作に置き換えることで,WaveMixSRアーキテクチャの拡張版を提案する。
我々の実験は、拡張モデルであるWaveMixSR-V2が、複数の超解像タスクにおいて、他のアーキテクチャよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-09-16T04:16:52Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - WavePaint: Resource-efficient Token-mixer for Self-supervised Inpainting [2.3014300466616078]
本稿では、計算効率の良いWaveMixベースの完全畳み込みアーキテクチャであるWavePaintを用いて、視覚変換器から分岐する。
2次元離散ウェーブレット変換(DWT)を用いて、畳み込み層とともに、空間的および多重解像度のトークン混合を行う。
我々のモデルは、CelebA-HQデータセットの現在のGANアーキテクチャよりも優れている。
論文 参考訳(メタデータ) (2023-07-01T18:41:34Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - WaveMix: A Resource-efficient Neural Network for Image Analysis [3.4927288761640565]
WaveMixはリソース効率が高く、汎用的でスケーラブルです。
ネットワークは、最先端の畳み込みニューラルネットワークと同等またはより正確な精度を達成する。
WaveMixはCityscapesのセグメンテーションのための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2022-05-28T09:08:50Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - WaveMix: Resource-efficient Token Mixing for Images [2.7188347260210466]
本稿では,空間トークン混合のためのマルチスケール2次元離散ウェーブレット変換(DWT)を用いた代替ニューラルネットワークとしてWaveMixを提案する。
WaveMix は EMNIST Byclass と EMNIST Balanced データセットで State-of-the-art (SOTA) を達成している。
論文 参考訳(メタデータ) (2022-03-07T20:15:17Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。