論文の概要: Reverse Convolution and Its Applications to Image Restoration
- arxiv url: http://arxiv.org/abs/2508.09824v1
- Date: Wed, 13 Aug 2025 13:56:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.917353
- Title: Reverse Convolution and Its Applications to Image Restoration
- Title(参考訳): 逆畳み込みと画像復元への応用
- Authors: Xuhong Huang, Shiqi Liu, Kai Zhang, Ying Tai, Jian Yang, Hui Zeng, Lei Zhang,
- Abstract要約: 畳み込みと転置畳み込みはニューラルネットワークで広く使われている基本演算子である。
本稿では,新しい深度反転畳み込み演算子を提案する。
さらに,レイヤ正規化,1$times$1畳み込み,GELUアクティベーションと組み合わせてリバース畳み込みブロックを構築し,トランスフォーマーのような構造を形成する。
- 参考スコア(独自算出の注目度): 48.038943893721296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolution and transposed convolution are fundamental operators widely used in neural networks. However, transposed convolution (a.k.a. deconvolution) does not serve as a true inverse of convolution due to inherent differences in their mathematical formulations. To date, no reverse convolution operator has been established as a standard component in neural architectures. In this paper, we propose a novel depthwise reverse convolution operator as an initial attempt to effectively reverse depthwise convolution by formulating and solving a regularized least-squares optimization problem. We thoroughly investigate its kernel initialization, padding strategies, and other critical aspects to ensure its effective implementation. Building upon this operator, we further construct a reverse convolution block by combining it with layer normalization, 1$\times$1 convolution, and GELU activation, forming a Transformer-like structure. The proposed operator and block can directly replace conventional convolution and transposed convolution layers in existing architectures, leading to the development of ConverseNet. Corresponding to typical image restoration models such as DnCNN, SRResNet and USRNet, we train three variants of ConverseNet for Gaussian denoising, super-resolution and deblurring, respectively. Extensive experiments demonstrate the effectiveness of the proposed reverse convolution operator as a basic building module. We hope this work could pave the way for developing new operators in deep model design and applications.
- Abstract(参考訳): 畳み込みと転置畳み込みはニューラルネットワークで広く使われている基本演算子である。
しかし、転置畳み込み(すなわち脱畳み込み)は、それらの数学的定式化に固有の違いがあるため、真の畳み込みの逆元として機能しない。
これまでのところ、ニューラルアーキテクチャの標準コンポーネントとしてリバース畳み込み演算子は確立されていない。
本稿では,正規化最小二乗最適化問題の定式化と解法により,奥行き逆畳み込み演算子を効果的に逆転させる試みとして,新しい逆畳み込み演算子を提案する。
カーネルの初期化、パディング戦略、その他の重要な側面を徹底的に検討し、その実装を確実にする。
この演算子上に構築した逆畳み込みブロックは, 層正規化, 1$\times$1畳み込み, GELUアクティベーションと組み合わせて, トランスフォーマーのような構造を形成する。
提案した演算子とブロックは、既存のアーキテクチャにおける従来の畳み込み層や転置畳み込み層を直接置き換えることができるため、ConverseNetの開発に繋がる。
DnCNN、SRResNet、USRNetといった典型的な画像復元モデルに対応して、我々はそれぞれ3種類のConverseNetをガウスのデノイング、超分解能、およびデブロアリングのために訓練する。
大規模な実験により, 基本構造モジュールとして提案した逆畳み込み演算子の有効性が実証された。
この取り組みが、ディープモデル設計とアプリケーションで新しいオペレーターを開発する道を開くことを願っている。
関連論文リスト
- Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - OneDConv: Generalized Convolution For Transform-Invariant Representation [76.15687106423859]
一般化された一次元畳み込み作用素(OneDConv)を提案する。
計算的かつパラメトリック的に効率的な方法で入力特徴に基づいて、畳み込みカーネルを動的に変換する。
一般的な画像のパフォーマンスを犠牲にすることなく、畳み込みの堅牢性と一般化を改善する。
論文 参考訳(メタデータ) (2022-01-15T07:44:44Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - Convolutional Normalization: Improving Deep Convolutional Network
Robustness and Training [44.66478612082257]
現代畳み込みニューラルネットワーク(convnets)では正規化技術が基本成分となっている
フーリエ領域における畳み込み構造を完全に活用できるシンプルで効率的な畳み込み正規化法を導入する。
畳み込み正規化は、重み行列の層単位でのスペクトルノルムを減少させ、ネットワークのリプシッツ性を改善することができることを示す。
論文 参考訳(メタデータ) (2021-03-01T00:33:04Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。