論文の概要: LKD-Net: Large Kernel Convolution Network for Single Image Dehazing
- arxiv url: http://arxiv.org/abs/2209.01788v1
- Date: Mon, 5 Sep 2022 06:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:55:41.615907
- Title: LKD-Net: Large Kernel Convolution Network for Single Image Dehazing
- Title(参考訳): LKD-Net:シングルイメージデハジングのための大規模カーネル畳み込みネットワーク
- Authors: Pinjun Luo, Guoqiang Xiao, Xinbo Gao, Song Wu
- Abstract要約: 本稿では,LKCB(Large Kernel Convolution Dehaze Block)とCEFN(Channel Enhanced Feed-forward Network)を組み合わせた新しいLKDブロックを提案する。
設計されたDLKCBは、大規模なカーネルの畳み込みを、大量のパラメータや計算オーバーヘッドを伴わずに、より小さな奥行きの畳み込みと奥行きの縮み込みに分割することができる。
我々のLKD-NetはTransformerベースのメソッドであるDehamerを1.79%の#Paramと48.9%のFLOPで劇的に上回っている。
- 参考スコア(独自算出の注目度): 70.46392287128307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep convolutional neural networks (CNNs)-based single image dehazing
methods have achieved significant success. The previous methods are devoted to
improving the network's performance by increasing the network's depth and
width. The current methods focus on increasing the convolutional kernel size to
enhance its performance by benefiting from the larger receptive field. However,
directly increasing the size of the convolutional kernel introduces a massive
amount of computational overhead and parameters. Thus, a novel Large Kernel
Convolution Dehaze Block (LKD Block) consisting of the Decomposition deep-wise
Large Kernel Convolution Block (DLKCB) and the Channel Enhanced Feed-forward
Network (CEFN) is devised in this paper. The designed DLKCB can split the
deep-wise large kernel convolution into a smaller depth-wise convolution and a
depth-wise dilated convolution without introducing massive parameters and
computational overhead. Meanwhile, the designed CEFN incorporates a channel
attention mechanism into Feed-forward Network to exploit significant channels
and enhance robustness. By combining multiple LKD Blocks and Up-Down sampling
modules, the Large Kernel Convolution Dehaze Network (LKD-Net) is conducted.
The evaluation results demonstrate the effectiveness of the designed DLKCB and
CEFN, and our LKD-Net outperforms the state-of-the-art. On the SOTS indoor
dataset, our LKD-Net dramatically outperforms the Transformer-based method
Dehamer with only 1.79% #Param and 48.9% FLOPs. The source code of our LKD-Net
is available at https://github.com/SWU-CS-MediaLab/LKD-Net.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(cnns)ベースの単一画像デハジング手法は大きな成功を収めている。
従来の手法はネットワークの深さと幅を増大させることでネットワークの性能を向上させることに集中している。
現在の手法は畳み込み型カーネルのサイズを増加させ、より大きな受容場から恩恵を受けることでその性能を向上させることに焦点を当てている。
しかし、畳み込みカーネルのサイズを直接増大させると、膨大な計算オーバーヘッドとパラメータが発生する。
本稿では,dlkcb(deep-wise large kernel convolution block)とcefn(channel enhanced feed-forward network)の分解からなる,新しい大きなカーネル畳み込みデヘイズブロック(lkd block)を提案する。
設計されたDLKCBは、大規模なカーネルの畳み込みを、大量のパラメータや計算オーバーヘッドを伴わずに、より小さな奥行きの畳み込みと奥行きの縮み込みに分割することができる。
一方、設計されたCEFNは、フィードフォワードネットワークにチャネルアテンション機構を組み込んで、重要なチャネルを活用し、堅牢性を高める。
複数のLKDブロックとUp-Downサンプリングモジュールを組み合わせることで、Large Kernel Convolution Dehaze Network(LKD-Net)を行う。
その結果,設計したDLKCBとCEFNの有効性が示され,LKD-Netは最先端技術よりも優れていた。
SOTS屋内データセットでは、我々のLKD-NetはTransformerベースのメソッドであるDehamerを1.79%の#Paramと48.9%のFLOPで劇的に上回っている。
LKD-Netのソースコードはhttps://github.com/SWU-CS-MediaLab/LKD-Netで公開されている。
関連論文リスト
- SGLP: A Similarity Guided Fast Layer Partition Pruning for Compressing Large Deep Models [19.479746878680707]
レイヤプルーニングは、ネットワークサイズを削減し、計算効率を向上させるための強力なアプローチである。
大規模深層モデル圧縮のための類似性誘導高速層分割プルーニングを提案する。
本手法は精度と計算効率の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-10-14T04:01:08Z) - LSK3DNet: Towards Effective and Efficient 3D Perception with Large Sparse Kernels [62.31333169413391]
大型スパースカーネル3次元ニューラルネットワーク(LSK3DNet)
提案手法は,SDS (Spatial-wise Dynamic Sparsity) とCWS (Channel-wise Weight Selection) の2成分からなる。
論文 参考訳(メタデータ) (2024-03-22T12:54:33Z) - HyPHEN: A Hybrid Packing Method and Optimizations for Homomorphic
Encryption-Based Neural Networks [7.642103082787977]
完全同相暗号(FHE)を用いた畳み込みニューラルネットワーク(CNN)推論は、有望なプライベート推論(PI)ソリューションである。
本稿では、新しい畳み込みアルゴリズムとデータパッキングを組み込んだ深層HCNN構築法であるHyPHENを提案する。
その結果、HyPHENはHCNN CIFAR-10推論のレイテンシを1.4秒(ResNet-20)で実践レベルまで下げ、初めて14.7秒(ResNet-18)でHCNN ImageNet推論を示す。
論文 参考訳(メタデータ) (2023-02-05T15:36:51Z) - IMDeception: Grouped Information Distilling Super-Resolution Network [7.6146285961466]
SISR(Single-Image-Super-Resolution)は、ディープラーニング手法の最近の進歩の恩恵を受けている古典的なコンピュータビジョン問題である。
本稿では,機能集約のためのIICモジュールの代替として,GPRM(Global Progressive Refinement Module)を提案する。
また,1秒あたりのパラメータ数や浮動小数点演算量(FLOPS)をさらに削減するために,GIDB(Grouped Information Distilling Blocks)を提案する。
実験の結果,提案したネットワークは,パラメータ数やFLOPSが限られているにもかかわらず,最先端モデルと同等に動作していることがわかった。
論文 参考訳(メタデータ) (2022-04-25T06:43:45Z) - Searching for Network Width with Bilaterally Coupled Network [75.43658047510334]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
本稿では,Channel-Bench-Macroというマクロ構造に対するオープンソースのワイド・ベンチマークを提案し,ワイド・サーチ・アルゴリズムの比較を行った。
論文 参考訳(メタデータ) (2022-03-25T15:32:46Z) - Rapid training of deep neural networks without skip connections or
normalization layers using Deep Kernel Shaping [46.083745557823164]
我々は、深層ネットワークに存在する主な病理組織を特定し、それらが高速にトレーニングされ、目に見えないデータに一般化されるのを防ぐ。
本稿では,ネットワークのカーネル関数の「形状」を慎重に制御することで,これらを回避する方法を示す。
論文 参考訳(メタデータ) (2021-10-05T00:49:36Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。