論文の概要: Padding-free Convolution based on Preservation of Differential
Characteristics of Kernels
- arxiv url: http://arxiv.org/abs/2309.06370v1
- Date: Tue, 12 Sep 2023 16:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 12:14:14.307950
- Title: Padding-free Convolution based on Preservation of Differential
Characteristics of Kernels
- Title(参考訳): 核の微分特性の保存に基づくパディングフリー畳み込み
- Authors: Kuangdai Leng and Jeyan Thiyagalingam
- Abstract要約: 本稿では,カーネルの差分特性の保存に基づくサイズ保持畳み込み法を提案する。
主なアイデアは、不完全なスライドウィンドウ上の畳み込みを、その中心画素で局所的に評価された線形微分作用素に"崩壊"させることである。
- 参考スコア(独自算出の注目度): 1.3597551064547502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolution is a fundamental operation in image processing and machine
learning. Aimed primarily at maintaining image size, padding is a key
ingredient of convolution, which, however, can introduce undesirable boundary
effects. We present a non-padding-based method for size-keeping convolution
based on the preservation of differential characteristics of kernels. The main
idea is to make convolution over an incomplete sliding window "collapse" to a
linear differential operator evaluated locally at its central pixel, which no
longer requires information from the neighbouring missing pixels. While the
underlying theory is rigorous, our final formula turns out to be simple: the
convolution over an incomplete window is achieved by convolving its nearest
complete window with a transformed kernel. This formula is computationally
lightweight, involving neither interpolation or extrapolation nor restrictions
on image and kernel sizes. Our method favours data with smooth boundaries, such
as high-resolution images and fields from physics. Our experiments include: i)
filtering analytical and non-analytical fields from computational physics and,
ii) training convolutional neural networks (CNNs) for the tasks of image
classification, semantic segmentation and super-resolution reconstruction. In
all these experiments, our method has exhibited visible superiority over the
compared ones.
- Abstract(参考訳): 畳み込みは画像処理と機械学習の基本的な操作である。
主に画像サイズを維持するため、パディングは畳み込みの重要な要素であるが、望ましくない境界効果をもたらす可能性がある。
本稿では,カーネルの差分特性の保存に基づくサイズ保持畳み込み法を提案する。
主なアイデアは、不完全なスライディングウィンドウ "collapse" 上の畳み込みを、その中央ピクセルで局所的に評価された線形微分演算子にすることである。
基礎となる理論は厳密なものであるが、最終的な公式は単純であることが判明し、不完全ウィンドウ上の畳み込みは、最も近い完全ウィンドウを変換されたカーネルと結び付けることによって達成される。
この公式は計算量的に軽量であり、補間も外挿も画像サイズやカーネルサイズへの制限も含まない。
提案手法は,高解像度画像や物理分野などのスムーズな境界を持つデータを好む。
私たちの実験には
一 計算物理学から解析分野及び非解析分野をフィルタリングすること及び
二 画像分類、セマンティックセグメンテーション及び超解像再構成のタスクのための畳み込みニューラルネットワーク(CNN)を訓練すること。
これらすべての実験において,本手法は比較実験よりも可視的優越性を示した。
関連論文リスト
- Self-Supervised Single-Image Deconvolution with Siamese Neural Networks [6.138671548064356]
画像再構成における逆問題は、未知のノイズ特性によって根本的に複雑である。
ディープラーニングの手法は、ノイズのフレキシブルなパラメトリゼーションを可能にし、データから直接その特性を学習する。
我々は3次元デコンボリューションタスクにおけるトレーニング速度アップを提供する高速フーリエ変換畳み込み問題に対処する。
論文 参考訳(メタデータ) (2023-08-18T09:51:11Z) - Progressive Random Convolutions for Single Domain Generalization [23.07924668615951]
単一ドメインの一般化は、任意の未知のターゲットドメインで正常に動作するように、1つのソースドメインで一般化可能なモデルをトレーニングすることを目的としている。
ランダム畳み込み(RandConv)に基づく画像拡張により、局所的なテクスチャを歪ませることで、一般化可能な視覚表現を学習することができる。
本稿では,カーネルサイズを小さくすることなく,ランダムな畳み込み層を積み重ねるプログレッシブランダム畳み込み(Pro-RandConv)手法を提案する。
論文 参考訳(メタデータ) (2023-04-02T01:42:51Z) - Fast and High-Quality Image Denoising via Malleable Convolutions [72.18723834537494]
動的畳み込みの効率的な変種として、Malleable Convolution (MalleConv)を提案する。
以前の作品とは異なり、MalleConvは入力から空間的に変化するカーネルのより小さなセットを生成する。
また、MalleNetという造語であるMalleConvを用いて、効率的なdenoisingネットワークを構築した。
論文 参考訳(メタデータ) (2022-01-02T18:35:20Z) - Neural Fields as Learnable Kernels for 3D Reconstruction [101.54431372685018]
本稿では,学習したカーネルリッジの回帰に基づいて,暗黙の3次元形状を再構成する手法を提案する。
本手法は,3次元オブジェクトと大画面をスパース指向の点から再構成する際の最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-11-26T18:59:04Z) - Learning with convolution and pooling operations in kernel methods [8.528384027684192]
近年の実証研究により、階層的畳み込みカーネルは、画像分類タスクにおけるカーネルメソッドの性能を向上させることが示されている。
畳み込みアーキテクチャにおける近似と一般化の正確な相互作用について検討する。
この結果から,対象関数に適応したアーキテクチャの選択が,サンプルの複雑性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-11-16T09:00:44Z) - Mutual Affine Network for Spatially Variant Kernel Estimation in Blind
Image Super-Resolution [130.32026819172256]
既存のブラインド画像超解像法(SR)は、ぼやけたカーネルが画像全体にわたって空間的に不変であると仮定する。
本稿では,空間変動カーネル推定のための相互アフィンネットワーク(MANet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T16:11:17Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z) - Adaptive Fractional Dilated Convolution Network for Image Aesthetics
Assessment [33.945579916184364]
適応型分数拡張畳み込み(AFDC)は、畳み込みカーネルレベルでこの問題に取り組むために開発された。
ミニバッチ学習のための簡潔な定式化を行い,グループ化戦略を用いて計算オーバーヘッドを削減する。
提案手法は,AVAデータセットを用いた画像美学評価において,最先端の性能を実現することを実証した。
論文 参考訳(メタデータ) (2020-04-06T21:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。