論文の概要: Simple Baselines for Image Restoration
- arxiv url: http://arxiv.org/abs/2204.04676v1
- Date: Sun, 10 Apr 2022 12:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 16:28:07.482304
- Title: Simple Baselines for Image Restoration
- Title(参考訳): 画像復元のための簡易ベースライン
- Authors: Liangyu Chen, Xiaojie Chu, Xiangyu Zhang, Jian Sun
- Abstract要約: 本稿では,SOTA(State-of-the-art)法を超越した,計算効率の高い単純なベースラインを提案する。
我々は、ベースラインからActivation Free Network、すなわちNAFNetを導出する。
SOTAの結果は、GoProの33.69dB PSNR(画像劣化)、計算コストのわずか8.4%のSOTA 0.38dB、SIDDの40.30dB PSNR(画像劣化)、計算コストの半分未満のSOTA 0.28dBといった、様々な挑戦的なベンチマークで達成されている。
- 参考スコア(独自算出の注目度): 79.48718779396971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although there have been significant advances in the field of image
restoration recently, the system complexity of the state-of-the-art (SOTA)
methods is increasing as well, which may hinder the convenient analysis and
comparison of methods. In this paper, we propose a simple baseline that exceeds
the SOTA methods and is computationally efficient. To further simplify the
baseline, we reveal that the nonlinear activation functions, e.g. Sigmoid,
ReLU, GELU, Softmax, etc. are not necessary: they could be replaced by
multiplication or removed. Thus, we derive a Nonlinear Activation Free Network,
namely NAFNet, from the baseline. SOTA results are achieved on various
challenging benchmarks, e.g. 33.69 dB PSNR on GoPro (for image deblurring),
exceeding the previous SOTA 0.38 dB with only 8.4% of its computational costs;
40.30 dB PSNR on SIDD (for image denoising), exceeding the previous SOTA 0.28
dB with less than half of its computational costs. The code and the pretrained
models will be released at https://github.com/megvii-research/NAFNet.
- Abstract(参考訳): 近年,画像修復の分野では大きな進歩があったが,最新技術(SOTA)手法のシステム複雑性も増大しており,簡便な解析や比較を妨げている可能性がある。
本稿では,SOTA法を超越した計算効率の簡単なベースラインを提案する。
さらにベースラインを単純化するため,sgmoid,relu,gelu,softmaxなどの非線形活性化関数は不要であることを明らかにした。
したがって、ベースラインから非線形活性化自由ネットワーク、すなわちNAFNetを導出する。
SOTAの結果は、GoProの33.69dB PSNR(画像劣化)、計算コストのわずか8.4%のSOTA 0.38dB、SIDDの40.30dB PSNR(画像劣化)、計算コストの半分未満のSOTA 0.28dBといった、様々な挑戦的なベンチマークで達成されている。
コードと事前訓練されたモデルはhttps://github.com/megvii-research/NAFNetで公開される。
関連論文リスト
- Adversarial Robustness Limits via Scaling-Law and Human-Alignment Studies [19.100334346597982]
モデルサイズ,データセットサイズ,合成データ品質が,対戦型トレーニングのための最初のスケーリング法則を開発することにより,ロバスト性にどのように影響するかを分析する。
我々のスケーリング法則は、先行技術における非効率性を明らかにし、現場を前進させるための実用的なフィードバックを提供する。
論文 参考訳(メタデータ) (2024-04-14T20:14:38Z) - ECoDepth: Effective Conditioning of Diffusion Models for Monocular Depth Estimation [5.179738379203527]
パララックスの手がかりがない場合、学習に基づく単一画像深度推定モデルは、画像のシェーディングと文脈的手がかりに大きく依存する。
このようなモデルを、キャプチャが難しい大規模で多様なデータセットでトレーニングする必要がある。
CLIPのようなトレーニング済みの基礎モデルからの埋め込みを使用することで、いくつかのアプリケーションにおけるゼロショット転送が改善される。
論文 参考訳(メタデータ) (2024-03-27T17:53:30Z) - ACT-Diffusion: Efficient Adversarial Consistency Training for One-step Diffusion Models [59.90959789767886]
整合性トレーニング損失の最適化は,目標分布と生成分布とのワッサーシュタイン距離を最小化することを示す。
CIFAR10 と ImageNet 64$times$64 と LSUN Cat 256$times$256 データセットの FID スコアを改善する。
論文 参考訳(メタデータ) (2023-11-23T16:49:06Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - A Recipe for Efficient SBIR Models: Combining Relative Triplet Loss with
Batch Normalization and Knowledge Distillation [3.364554138758565]
SBIR(Sketch-Based Image Retrieval)は、マルチメディア検索において重要なタスクであり、指定されたスケッチクエリにマッチした画像の集合を検索することを目的としている。
我々は, アンカーの類似性に基づく損失重み付けにより, 制限を克服する適応三重項損失である相対三重項損失(RTL)を導入する。
本稿では, 知識蒸留による精度の限界損失を抑えて, 小型モデルを効率的に訓練するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-05-30T12:41:04Z) - A New Backbone for Hyperspectral Image Reconstruction [90.48427561874402]
3次元ハイパースペクトル画像(HSI)再構成は、スナップショット圧縮画像の逆過程を指す。
空間/スペクトル不変Residual U-Net、すなわちSSI-ResU-Netを提案する。
SSI-ResU-Net は浮動小数点演算の 77.3% 以上で競合する性能を実現する。
論文 参考訳(メタデータ) (2021-08-17T16:20:51Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single
Image Super-Resolution and Beyond [75.37541439447314]
単一画像超解像(SISR)は、低解像度(LR)画像を高解像度(HR)バージョンにアップサンプリングする根本的な問題を扱う。
本稿では,線形組立画素適応回帰ネットワーク (LAPAR) を提案する。
論文 参考訳(メタデータ) (2021-05-21T15:47:18Z) - HINet: Half Instance Normalization Network for Image Restoration [11.788159823037601]
我々は、画像復元ネットワークのパフォーマンスを高めるために、新しいブロック:ハーフインスタンス正規化ブロック(HINブロック)を提示します。
HINブロックをベースとして,2つのワークからなるHINetという,シンプルで強力なマルチステージネットワークを設計する。
HIN Blockの助けを借りて、HINetはさまざまな画像復元タスクで最先端の(SOTA)を超えています。
論文 参考訳(メタデータ) (2021-05-13T05:25:01Z) - Enabling Retrain-free Deep Neural Network Pruning using Surrogate
Lagrangian Relaxation [2.691929135895278]
サロゲート・ラグランジアン・リラクゼーション(SLR)に基づく体系的な軽量化最適化手法を開発。
SLRは、同じ精度で最先端技術よりも高い圧縮率を達成する。
再学習の予算が限られているため,本手法はモデル精度を迅速に回復する。
論文 参考訳(メタデータ) (2020-12-18T07:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。