論文の概要: AdderSR: Towards Energy Efficient Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2009.08891v7
- Date: Tue, 4 May 2021 08:01:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 03:34:29.201705
- Title: AdderSR: Towards Energy Efficient Image Super-Resolution
- Title(参考訳): エネルギー効率のよい超解像を目指すAdderSR
- Authors: Dehua Song, Yunhe Wang, Hanting Chen, Chang Xu, Chunjing Xu, Dacheng
Tao
- Abstract要約: 本稿では,加算器ニューラルネットワーク(AdderNet)を用いた単一画像超解問題について検討する。
畳み込みニューラルネットワークと比較して、AdderNetは加算を利用して出力特性を計算し、従来の乗算の膨大なエネルギー消費を回避する。
- 参考スコア(独自算出の注目度): 127.61437479490047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the single image super-resolution problem using adder
neural networks (AdderNet). Compared with convolutional neural networks,
AdderNet utilizing additions to calculate the output features thus avoid
massive energy consumptions of conventional multiplications. However, it is
very hard to directly inherit the existing success of AdderNet on large-scale
image classification to the image super-resolution task due to the different
calculation paradigm. Specifically, the adder operation cannot easily learn the
identity mapping, which is essential for image processing tasks. In addition,
the functionality of high-pass filters cannot be ensured by AdderNet. To this
end, we thoroughly analyze the relationship between an adder operation and the
identity mapping and insert shortcuts to enhance the performance of SR models
using adder networks. Then, we develop a learnable power activation for
adjusting the feature distribution and refining details. Experiments conducted
on several benchmark models and datasets demonstrate that, our image
super-resolution models using AdderNet can achieve comparable performance and
visual quality to that of their CNN baselines with an about 2$\times$ reduction
on the energy consumption.
- Abstract(参考訳): 本稿では,加算器ニューラルネットワーク(AdderNet)を用いた単一画像超解問題について検討する。
畳み込みニューラルネットワークと比較して、AdderNetは加算を利用して出力特性を計算し、従来の乗算の膨大なエネルギー消費を回避する。
しかし, 大規模画像分類におけるAdderNetの既存の成功を, 異なる計算パラダイムによる画像超解像タスクに直接継承することは困難である。
特に、加算器操作は、画像処理タスクに不可欠なアイデンティティマッピングを簡単に学習することができない。
さらに、AdderNetによってハイパスフィルタの機能を保証することはできない。
そこで我々は,加算器操作とIDマッピングの関係を徹底的に解析し,加算器ネットワークを用いたSRモデルの性能向上のためにショートカットを挿入する。
次に,特徴分布と精細度を調整するための学習可能なパワーアクティベーションを開発する。
いくつかのベンチマークモデルとデータセットで実施した実験により、addernetを用いた画像超解像モデルは、cnnベースラインと同等の性能と視覚的品質を達成でき、エネルギー消費量を約2$\times$で削減できることが示されている。
関連論文リスト
- Adaptive Convolutional Neural Network for Image Super-resolution [43.06377001247278]
画像超解像のための適応畳み込みニューラルネットワーク(ADSRNet)を提案する。
上層ネットワークは、コンテキスト情報、カーネルマッピングの健全な情報関係、浅い層と深い層の関連性を高めることができる。
下位のネットワークは対称アーキテクチャを使用して、異なるレイヤの関係を強化し、より構造的な情報をマイニングする。
論文 参考訳(メタデータ) (2024-02-24T03:44:06Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - An Empirical Study of Adder Neural Networks for Object Detection [67.64041181937624]
加算ニューラルネットワーク(AdderNets)は、追加操作のみを伴う画像分類において、優れたパフォーマンスを示している。
本稿では,オブジェクト検出のためのAdderNetsを実証研究する。
論文 参考訳(メタデータ) (2021-12-27T11:03:13Z) - Adder Neural Networks [75.54239599016535]
我々は、ディープニューラルネットワークにおける大規模な乗算を交換するために、加算器ネットワーク(AdderNets)を提案する。
AdderNetsでは、フィルタと入力特徴の間の$ell_p$-norm距離を出力応答として取ります。
提案したAdderNetsは,ImageNetデータセット上でResNet-50を用いて,75.7%のTop-1精度92.3%のTop-5精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-05-29T04:02:51Z) - Scalable Visual Transformers with Hierarchical Pooling [61.05787583247392]
本稿では,視覚的トークンを徐々にプールしてシーケンス長を縮小する階層的ビジュアルトランスフォーマ(hvt)を提案する。
計算の複雑さを増すことなく、深さ/幅/解像度/パッチサイズの寸法をスケールすることで、大きなメリットをもたらします。
当社のHVTはImageNetとCIFAR-100データセットの競合ベースラインを上回っています。
論文 参考訳(メタデータ) (2021-03-19T03:55:58Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。