論文の概要: Lighten CARAFE: Dynamic Lightweight Upsampling with Guided Reassemble Kernels
- arxiv url: http://arxiv.org/abs/2410.22139v1
- Date: Tue, 29 Oct 2024 15:35:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:21.620686
- Title: Lighten CARAFE: Dynamic Lightweight Upsampling with Guided Reassemble Kernels
- Title(参考訳): Lighten CARAFE: ガイド付き再組み立てカーネルによる動的軽量アップサンプリング
- Authors: Ruigang Fu, Qingyong Hu, Xiaohu Dong, Yinghui Gao, Biao Li, Ping Zhong,
- Abstract要約: 我々はDLU(Dynamic Lightweight Upsampling)と呼ばれる軽量なアップサンプリング動作を提案する。
いくつかのメインストリームのビジョンタスクの実験では、私たちのDLUはオリジナルのCARAFEに匹敵する、さらに優れたパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 18.729177307412645
- License:
- Abstract: As a fundamental operation in modern machine vision models, feature upsampling has been widely used and investigated in the literatures. An ideal upsampling operation should be lightweight, with low computational complexity. That is, it can not only improve the overall performance but also not affect the model complexity. Content-aware Reassembly of Features (CARAFE) is a well-designed learnable operation to achieve feature upsampling. Albeit encouraging performance achieved, this method requires generating large-scale kernels, which brings a mass of extra redundant parameters, and inherently has limited scalability. To this end, we propose a lightweight upsampling operation, termed Dynamic Lightweight Upsampling (DLU) in this paper. In particular, it first constructs a small-scale source kernel space, and then samples the large-scale kernels from the kernel space by introducing learnable guidance offsets, hence avoiding introducing a large collection of trainable parameters in upsampling. Experiments on several mainstream vision tasks show that our DLU achieves comparable and even better performance to the original CARAFE, but with much lower complexity, e.g., DLU requires 91% fewer parameters and at least 63% fewer FLOPs (Floating Point Operations) than CARAFE in the case of 16x upsampling, but outperforms the CARAFE by 0.3% mAP in object detection. Code is available at https://github.com/Fu0511/Dynamic-Lightweight-Upsampling.
- Abstract(参考訳): 現代のマシンビジョンモデルにおける基本的な操作として、機能アップサンプリングが広く使われ、文献で研究されている。
理想的なアップサンプリング操作は、計算量が少なく、軽量でなければならない。
つまり、全体的なパフォーマンスを改善するだけでなく、モデルの複雑さにも影響を与えないということです。
CARAFE(Content-Aware Reassembly of Features)は、機能アップサンプリングを実現するための、よく設計された学習可能な操作である。
性能が向上する一方で、この方法は大規模なカーネルを生成する必要があるため、余分な冗長なパラメータが大量に発生し、本質的にはスケーラビリティが制限されている。
そこで本稿では,DLU(Dynamic Lightweight Upsampling)と呼ばれる軽量なアップサンプリング動作を提案する。
特に、まずは小規模のソースカーネル空間を構築し、次に学習可能なガイダンスオフセットを導入してカーネル空間から大規模なカーネルをサンプリングする。
いくつかのメインストリームのビジョンタスクの実験では、私たちのDLUはオリジナルのCARAFEに匹敵する、さらに優れたパフォーマンスを実現していますが、より低い複雑性では、DLUは91%のパラメータと少なくとも63%のFLOP(浮動小数点演算)を必要としています。
コードはhttps://github.com/Fu0511/Dynamic-Lightweight-Upsamplingで入手できる。
関連論文リスト
- Learning to Upsample by Learning to Sample [19.849631293898693]
超軽量で効果的な動的アップサンプラーであるDySampleを提案する。
以前のカーネルベースの動的アップサンプラーと比較して、DySampleはカスタマイズされたパッケージを必要とせず、パラメータもはるかに少ない。
DySampleは5つの密集した予測タスクにおいて、他のアップサンプラーよりも優れています。
論文 参考訳(メタデータ) (2023-08-29T07:50:11Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - CUF: Continuous Upsampling Filters [25.584630142930123]
本稿では,画像処理における最も重要な操作の一つとして,アップサンプリングについて考察する。
本稿では、アップサンプリングカーネルをニューラルネットワークとしてパラメータ化することを提案する。
このパラメータ化により、競合する任意のスケールの超解像アーキテクチャと比較して40倍のパラメータ数の削減が得られる。
論文 参考訳(メタデータ) (2022-10-13T12:45:51Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z) - Learning Affinity-Aware Upsampling for Deep Image Matting [83.02806488958399]
アップサンプリングにおける学習親和性は、ディープ・ネットワークにおけるペアワイズ・インタラクションを効果的かつ効率的に利用するためのアプローチであることを示す。
特に、コンポジション1kマッチングデータセットの結果は、A2Uが強いベースラインに対してSAD測定値の14%の相対的な改善を達成していることを示している。
最先端のマッティングネットワークと比較すると、モデル複雑度は40%に過ぎず、8%高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-11-29T05:09:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。