論文の概要: Five A$^{+}$ Network: You Only Need 9K Parameters for Underwater Image
Enhancement
- arxiv url: http://arxiv.org/abs/2305.08824v1
- Date: Mon, 15 May 2023 17:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 13:28:10.681530
- Title: Five A$^{+}$ Network: You Only Need 9K Parameters for Underwater Image
Enhancement
- Title(参考訳): Five A$^{+}$ Network: 水中画像強調のための9Kパラメータしか必要としない
- Authors: Jingxia Jiang, Tian Ye, Jinbin Bai, Sixiang Chen, Wenhao Chai, Shi
Jun, Yun Liu and Erkang Chen
- Abstract要約: FA$+$Netはリアルタイム水中画像強調ネットワークで、$sim$9kパラメータと$sim$0.01s処理時間しか持たない。
我々の知る限り、FA$+$Netは1080P画像のリアルタイムエンハンスメント機能を持つ唯一のネットワークである。
- 参考スコア(独自算出の注目度): 5.069845302359179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A lightweight underwater image enhancement network is of great significance
for resource-constrained platforms, but balancing model size, computational
efficiency, and enhancement performance has proven difficult for previous
approaches. In this work, we propose the Five A$^{+}$ Network (FA$^{+}$Net), a
highly efficient and lightweight real-time underwater image enhancement network
with only $\sim$ 9k parameters and $\sim$ 0.01s processing time. The
FA$^{+}$Net employs a two-stage enhancement structure. The strong prior stage
aims to decompose challenging underwater degradations into sub-problems, while
the fine-grained stage incorporates multi-branch color enhancement module and
pixel attention module to amplify the network's perception of details. To the
best of our knowledge, FA$^{+}$Net is the only network with the capability of
real-time enhancement of 1080P images. Thorough extensive experiments and
comprehensive visual comparison, we show that FA$^{+}$Net outperforms previous
approaches by obtaining state-of-the-art performance on multiple datasets while
significantly reducing both parameter count and computational complexity. The
code is open source at https://github.com/Owen718/FiveAPlus-Network.
- Abstract(参考訳): 軽量水中画像強調ネットワークは,資源制約されたプラットフォームにおいて非常に重要であるが,モデルサイズ,計算効率,拡張性能のバランスをとることは,従来のアプローチでは困難であった。
本研究では,高効率かつ軽量な水中画像強調ネットワークであるFive A$^{+}$Net(FA$^{+}$Net)を提案する。
fa$^{+}$netは2段階の強化構造を採用している。
強力な事前ステージは水中の難易度をサブプロブレムに分解することを目的としており、細粒度ステージにはマルチブランチカラーエンハンスメントモジュールとピクセルアテンションモジュールが組み込まれ、ネットワークの詳細認識を増幅する。
我々の知る限り、FA$^{+}$Netは1080P画像をリアルタイムに拡張できる唯一のネットワークである。
FA$^{+}$Netは, パラメータ数と計算複雑性の両方を著しく低減しつつ, 複数のデータセット上での最先端性能を得ることにより, 従来の手法よりも優れていることを示す。
コードはhttps://github.com/Owen718/FiveAPlus-Network.comで公開されている。
関連論文リスト
- Harnessing Multi-resolution and Multi-scale Attention for Underwater Image Restoration [3.686808512438363]
最近の水中画像復元法では、入力画像をフル解像度で分析するか、高解像度から低解像度に段階的に分析し、信頼性の高い意味情報を出力するが、空間精度は低下する。
本稿では,マルチレゾリューションとマルチスケールの画像解析に焦点を当てた,軽量なマルチステージネットワークLit-Netを提案する。
我々の新しいエンコーダブロックは、並列な1時間1ドルの畳み込みレイヤを使用して、ローカル情報をキャプチャし、操作を高速化する。
論文 参考訳(メタデータ) (2024-08-19T11:36:48Z) - (PASS) Visual Prompt Locates Good Structure Sparsity through a Recurrent HyperNetwork [60.889175951038496]
大規模ニューラルネットワークは、視覚や言語処理など、さまざまな領域で顕著なパフォーマンスを示している。
構造的刈り込みの鍵となる問題のひとつは、チャネルの意義を見積もる方法である。
我々は,新しいアルゴリズムフレームワーク,すなわち textttPASS を提案する。
視覚的プロンプトとネットワーク重み統計の両方を入力とし、繰り返し的に層ワイドチャネル間隔を出力するように調整されたハイパーネットワークである。
論文 参考訳(メタデータ) (2024-07-24T16:47:45Z) - Lightweight Pixel Difference Networks for Efficient Visual
Representation Learning [20.345417462198725]
emphPixel Different Convolution (PDC) と Binary PDC (Bi-PDC) という2種類の新しいコンボリューションを提案する。
エッジ検出やオブジェクト認識などの視覚的タスクに対して,高効率かつ高精度な表現を学習するために,emphPixel Different Networks (PiDiNet) とemph Binary PiDiNet (Bi-PiDiNet) という2つの軽量ディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-01T08:39:31Z) - Fully $1\times1$ Convolutional Network for Lightweight Image
Super-Resolution [79.04007257606862]
ディープモデルは、シングルイメージ超解像(SISR)タスク、特に大きなカーネルを持つ大きなモデル(3時間3ドル以上)において重要なプロセスを持つ。
$1times1$の畳み込みは計算効率を大幅に向上させるが、局所的な空間表現の集約に苦労する。
我々は、Shift-Conv-based Network (SCNet) という、シンプルで効果的な1時間1ドルの畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-30T06:24:03Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - DA$^{\textbf{2}}$-Net : Diverse & Adaptive Attention Convolutional
Neural Network [0.6999740786886536]
DA$2$-Netは、フィードフォワードCNNが多様な機能を明示的にキャプチャし、ネットワークのパフォーマンスを効果的に向上させるために最も有益な機能を適応的に選択し、強調することを可能にする。
CIFAR100,SVHN,ImageNetなど,ベンチマークデータセット上でDA$2$-Netを広範囲に評価した。
論文 参考訳(メタデータ) (2021-11-25T16:25:16Z) - SurroundNet: Towards Effective Low-Light Image Enhancement [43.99545410176845]
我々は150ドル未満のパラメータしか含まない新しいSurroundNetを提案し、非常に競争力のある性能を実現している。
提案するネットワークは、特徴空間における単一スケールレチネックスの新規拡張と見なせる複数の適応リチネックスブロック(ARBlock)から構成される。
また、低照度化前の低照度画像の平滑化のために、LED(Low-Exposure Denoiser)を導入している。
論文 参考訳(メタデータ) (2021-10-11T09:10:19Z) - LAFFNet: A Lightweight Adaptive Feature Fusion Network for Underwater
Image Enhancement [6.338178373376447]
水中画像強調のための軽量適応機能融合ネットワーク (LAFFNet) を提案する。
提案手法はパラメータ数を2.5Mから0.15Mに削減するが,実験により最先端のアルゴリズムよりも優れる。
論文 参考訳(メタデータ) (2021-05-04T05:31:10Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z) - AdderSR: Towards Energy Efficient Image Super-Resolution [127.61437479490047]
本稿では,加算器ニューラルネットワーク(AdderNet)を用いた単一画像超解問題について検討する。
畳み込みニューラルネットワークと比較して、AdderNetは加算を利用して出力特性を計算し、従来の乗算の膨大なエネルギー消費を回避する。
論文 参考訳(メタデータ) (2020-09-18T15:29:13Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。