論文の概要: Content-Aware Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2106.15797v1
- Date: Wed, 30 Jun 2021 03:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 15:33:27.904540
- Title: Content-Aware Convolutional Neural Networks
- Title(参考訳): コンテンツ対応畳み込みニューラルネットワーク
- Authors: Yong Guo, Yaofo Chen, Mingkui Tan, Kui Jia, Jian Chen, Jingdong Wang
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
- 参考スコア(独自算出の注目度): 98.97634685964819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) have achieved great success due to the
powerful feature learning ability of convolution layers. Specifically, the
standard convolution traverses the input images/features using a sliding window
scheme to extract features. However, not all the windows contribute equally to
the prediction results of CNNs. In practice, the convolutional operation on
some of the windows (e.g., smooth windows that contain very similar pixels) can
be very redundant and may introduce noises into the computation. Such
redundancy may not only deteriorate the performance but also incur the
unnecessary computational cost. Thus, it is important to reduce the
computational redundancy of convolution to improve the performance. To this
end, we propose a Content-aware Convolution (CAC) that automatically detects
the smooth windows and applies a 1x1 convolutional kernel to replace the
original large kernel. In this sense, we are able to effectively avoid the
redundant computation on similar pixels. By replacing the standard convolution
in CNNs with our CAC, the resultant models yield significantly better
performance and lower computational cost than the baseline models with the
standard convolution. More critically, we are able to dynamically allocate
suitable computation resources according to the data smoothness of different
images, making it possible for content-aware computation. Extensive experiments
on various computer vision tasks demonstrate the superiority of our method over
existing methods.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
具体的には、標準畳み込みは、スライディングウィンドウスキームを用いて入力画像/特徴をトラバースして特徴を抽出する。
しかし、全てのウィンドウがCNNの予測結果に等しく寄与するわけではない。
実際には、いくつかのウィンドウ(例えば、非常に類似したピクセルを含む滑らかなウィンドウ)の畳み込み操作は非常に冗長であり、計算にノイズをもたらす可能性がある。
このような冗長性は性能を悪化させるだけでなく、不要な計算コストを引き起こす可能性がある。
したがって、コンボリューションの計算冗長性を低減し、性能を向上させることが重要である。
そこで本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用したContent-aware Convolution (CAC)を提案する。
この意味では、同様の画素上での冗長な計算を効果的に回避することができる。
cnnの標準畳み込みをcacに置き換えることで、結果モデルの性能と計算コストが標準畳み込みモデルよりも大幅に向上します。
より批判的に、異なる画像のデータ平滑性に応じて、適切な計算リソースを動的に割り当てることができ、コンテンツ対応計算が可能となる。
様々なコンピュータビジョンタスクに対する大規模な実験は,既存の手法よりも本手法の方が優れていることを示す。
関連論文リスト
- Padding-free Convolution based on Preservation of Differential
Characteristics of Kernels [1.3597551064547502]
本稿では,カーネルの差分特性の保存に基づくサイズ保持畳み込み法を提案する。
主なアイデアは、不完全なスライドウィンドウ上の畳み込みを、その中心画素で局所的に評価された線形微分作用素に"崩壊"させることである。
論文 参考訳(メタデータ) (2023-09-12T16:36:12Z) - Fast and High-Quality Image Denoising via Malleable Convolutions [72.18723834537494]
動的畳み込みの効率的な変種として、Malleable Convolution (MalleConv)を提案する。
以前の作品とは異なり、MalleConvは入力から空間的に変化するカーネルのより小さなセットを生成する。
また、MalleNetという造語であるMalleConvを用いて、効率的なdenoisingネットワークを構築した。
論文 参考訳(メタデータ) (2022-01-02T18:35:20Z) - Efficient Deep Image Denoising via Class Specific Convolution [24.103826414190216]
画素ワイズ分類に基づく画像復調のための効率的なディープニューラルネットワークを提案する。
提案手法は性能を犠牲にすることなく計算コストを削減できる。
論文 参考訳(メタデータ) (2021-03-02T10:28:15Z) - DO-Conv: Depthwise Over-parameterized Convolutional Layer [66.46704754669169]
本稿では,各入力チャネルが異なる2次元カーネルに変換されるような,奥行きの畳み込みを付加した畳み込み層の拡張を提案する。
従来の畳み込み層をDO-Conv層に置き換えただけでCNNの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-06-22T06:57:10Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Convolutional neural networks compression with low rank and sparse
tensor decompositions [0.0]
畳み込みニューラルネットワークは、様々なコンピュータビジョンタスクにおいて顕著な結果を示す。
現実のアプリケーションでは、エッジシステムやモバイルデバイス上で走るのに十分高速で軽量なモデルを開発することが不可欠である。
本研究では,テンソル分解に基づくニューラルネットワーク圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T13:53:18Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - DyNet: Dynamic Convolution for Accelerating Convolutional Neural
Networks [16.169176006544436]
本稿では,画像内容に基づいてコンボリューションカーネルを適応的に生成する動的畳み込み手法を提案する。
MobileNetV3-Small/Largeアーキテクチャに基づいて、DyNetはImageNet上で70.3/77.1%のTop-1精度を達成し、2.9/1.9%改善した。
論文 参考訳(メタデータ) (2020-04-22T16:58:05Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。