論文の概要: HINet: Half Instance Normalization Network for Image Restoration
- arxiv url: http://arxiv.org/abs/2105.06086v1
- Date: Thu, 13 May 2021 05:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:49:44.674371
- Title: HINet: Half Instance Normalization Network for Image Restoration
- Title(参考訳): HINet:画像復元のためのハーフインスタンス正規化ネットワーク
- Authors: Liangyu Chen, Xin Lu, Jie Zhang, Xiaojie Chu, Chengpeng Chen
- Abstract要約: 我々は、画像復元ネットワークのパフォーマンスを高めるために、新しいブロック:ハーフインスタンス正規化ブロック(HINブロック)を提示します。
HINブロックをベースとして,2つのワークからなるHINetという,シンプルで強力なマルチステージネットワークを設計する。
HIN Blockの助けを借りて、HINetはさまざまな画像復元タスクで最先端の(SOTA)を超えています。
- 参考スコア(独自算出の注目度): 11.788159823037601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the role of Instance Normalization in low-level
vision tasks. Specifically, we present a novel block: Half Instance
Normalization Block (HIN Block), to boost the performance of image restoration
networks. Based on HIN Block, we design a simple and powerful multi-stage
network named HINet, which consists of two subnetworks. With the help of HIN
Block, HINet surpasses the state-of-the-art (SOTA) on various image restoration
tasks. For image denoising, we exceed it 0.11dB and 0.28 dB in PSNR on SIDD
dataset, with only 7.5% and 30% of its multiplier-accumulator operations
(MACs), 6.8 times and 2.9 times speedup respectively. For image deblurring, we
get comparable performance with 22.5% of its MACs and 3.3 times speedup on REDS
and GoPro datasets. For image deraining, we exceed it by 0.3 dB in PSNR on the
average result of multiple datasets with 1.4 times speedup. With HINet, we won
1st place on the NTIRE 2021 Image Deblurring Challenge - Track2. JPEG
Artifacts, with a PSNR of 29.70. The code is available at
https://github.com/megvii-model/HINet.
- Abstract(参考訳): 本稿では,低レベル視覚タスクにおけるインスタンス正規化の役割について検討する。
具体的には,画像復元ネットワークの性能を向上させるため,新しいブロックであるハーフインスタンス正規化ブロック(hinブロック)を提案する。
HINブロックに基づいて、2つのサブネットワークからなるHINetという,シンプルで強力なマルチステージネットワークを設計する。
HIN Blockの助けを借りて、HINetは様々な画像復元タスクの最先端(SOTA)を超越している。
SIDDデータセットでは0.11dBと0.28dBを超え、乗算器演算(MAC)の7.5%と30%、それぞれ6.8倍と2.9倍のスピードアップしかありません。
画像劣化では、MACの22.5%、REDSおよびGoProデータセットの3.3倍のスピードアップで同等のパフォーマンスが得られる。
画像参照の場合、1.4倍のスピードアップを持つ複数のデータセットの平均結果から、psnrでは0.3dbを超える。
HINetでは、NTIRE 2021 Image Deblurring Challenge - Track2で1位を獲得しました。
JPEG Artifacts、PSNRは29.70。
コードはhttps://github.com/megvii-model/hinetで入手できる。
関連論文リスト
- GAMA-IR: Global Additive Multidimensional Averaging for Fast Image Restoration [22.53813258871828]
高速かつ優れた画質が得られる画像復元ネットワークを導入する。
このネットワークは、標準GPU上で実行されるレイテンシとメモリ消費を最小限に抑えるように設計されている。
我々は、現実のSIDDにおける最先端の結果を0.11dBで上回り、より2倍から10倍速くする。
論文 参考訳(メタデータ) (2024-03-31T21:43:08Z) - Rapid-INR: Storage Efficient CPU-free DNN Training Using Implicit Neural Representation [7.539498729072623]
Implicit Neural Representation (INR) は、複雑な形状や物体を、その形状や表面構造を明確に定義せずに表現するための革新的なアプローチである。
従来の研究では、画像圧縮のINRとしてニューラルネットワークを使用することの有効性が実証されており、JPEGのような従来の手法に匹敵する性能を示している。
本稿では、画像のエンコーディングと圧縮にINRを利用する新しいアプローチであるRapid-INRを紹介し、コンピュータビジョンタスクにおけるニューラルネットワークトレーニングを高速化する。
論文 参考訳(メタデータ) (2023-06-29T05:49:07Z) - RedBit: An End-to-End Flexible Framework for Evaluating the Accuracy of
Quantized CNNs [9.807687918954763]
畳み込みニューラルネットワーク(CNN)は、画像処理、分類、セグメンテーションタスクのためのディープニューラルネットワークの標準クラスとなっている。
RedBitは、透過的で使いやすいインターフェースを提供するオープンソースのフレームワークで、異なるアルゴリズムの有効性をネットワークの精度で評価する。
論文 参考訳(メタデータ) (2023-01-15T21:27:35Z) - N2V2 -- Fixing Noise2Void Checkerboard Artifacts with Modified Sampling
Strategies and a Tweaked Network Architecture [66.03918859810022]
我々は,バニラN2V装置に2つの改良を加えて,不要なアーティファクトを大幅に削減する。
我々は、顕微鏡および自然画像データに基づいて、その修正を検証した。
論文 参考訳(メタデータ) (2022-11-15T21:12:09Z) - Simple Baselines for Image Restoration [79.48718779396971]
本稿では,SOTA(State-of-the-art)法を超越した,計算効率の高い単純なベースラインを提案する。
我々は、ベースラインからActivation Free Network、すなわちNAFNetを導出する。
SOTAの結果は、GoProの33.69dB PSNR(画像劣化)、計算コストのわずか8.4%のSOTA 0.38dB、SIDDの40.30dB PSNR(画像劣化)、計算コストの半分未満のSOTA 0.28dBといった、様々な挑戦的なベンチマークで達成されている。
論文 参考訳(メタデータ) (2022-04-10T12:48:38Z) - NanoBatch DPSGD: Exploring Differentially Private learning on ImageNet
with low batch sizes on the IPU [56.74644007407562]
ResNet-50におけるグループ正規化を用いたバッチサイズを小さくすることで,Graphcore IPUにおける高い精度とプライバシが得られることを示す。
これにより、イメージネット上のResNet-50上のDPSGDトレーニングを、IPU-POD16システム上でわずか6時間で行うことができる。
論文 参考訳(メタデータ) (2021-09-24T20:59:04Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。