論文の概要: E2FIF: Push the limit of Binarized Deep Imagery Super-resolution using
End-to-end Full-precision Information Flow
- arxiv url: http://arxiv.org/abs/2207.06893v1
- Date: Thu, 14 Jul 2022 13:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:18:50.227870
- Title: E2FIF: Push the limit of Binarized Deep Imagery Super-resolution using
End-to-end Full-precision Information Flow
- Title(参考訳): E2FIF:エンドツーエンド全精度情報フローを用いた2値化深部画像の超解像限界のプッシュ
- Authors: Zhiqiang Lang, Lei Zhang, Wei Wei
- Abstract要約: バイナリニューラルネットワーク(BNN)は、パラメータ集約型のディープイメージスーパーレゾリューション(SISR)モデルを、限られたストレージと計算リソースを持つ実際のデバイスにデプロイする、有望なソリューションを提供する。
SISRの既存のBNNのほとんどは、重み付けとアクティベーションのバイナライズによって引き起こされる情報損失の補償に重点を置いている。
本稿では,全ネットワークにまたがる二項化畳み込み層に完全精度のスキップ接続あるいはその変形を導入し,前方表現能力と後方伝播勾配の精度を向上させることを提案する。
- 参考スコア(独自算出の注目度): 16.84357146564702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary neural network (BNN) provides a promising solution to deploy
parameter-intensive deep single image super-resolution (SISR) models onto real
devices with limited storage and computational resources. To achieve comparable
performance with the full-precision counterpart, most existing BNNs for SISR
mainly focus on compensating the information loss incurred by binarizing
weights and activations in the network through better approximations to the
binarized convolution. In this study, we revisit the difference between BNNs
and their full-precision counterparts and argue that the key for good
generalization performance of BNNs lies on preserving a complete full-precision
information flow as well as an accurate gradient flow passing through each
binarized convolution layer. Inspired by this, we propose to introduce a
full-precision skip connection or its variant over each binarized convolution
layer across the entire network, which can increase the forward expressive
capability and the accuracy of back-propagated gradient, thus enhancing the
generalization performance. More importantly, such a scheme is applicable to
any existing BNN backbones for SISR without introducing any additional
computation cost. To testify its efficacy, we evaluate it using four different
backbones for SISR on four benchmark datasets and report obviously superior
performance over existing BNNs and even some 4-bit competitors.
- Abstract(参考訳): binary neural network(bnn)は、パラメータ集約型深層単一画像スーパーレゾリューション(sisr)モデルを、ストレージと計算リソースの制限された実デバイスにデプロイする、有望なソリューションを提供する。
SISRの既存のBNNのほとんどは、重み付けとアクティベーションを二項化することで得られる情報損失を、二項化畳み込みに対するより良い近似によって補償することに集中している。
本研究では,bnnと全精度の差を再検討し,bnnの優れた一般化性能の鍵は,全精度情報フローの保存と,各二元化畳み込み層を通過する正確な勾配流の保持にあると主張する。
そこで本研究では,ネットワーク全体にわたる二項化畳み込み層に完全精度のスキップ接続や変形を導入し,前向きの表現能力と後向き勾配の精度を高め,一般化性能を向上させることを提案する。
さらに重要なのは、新たな計算コストを導入することなく、SISRの既存のBNNバックボーンに適用できることだ。
その有効性を検証するために,4つのベンチマークデータセット上で,SISRの4つのバックボーンを使用して評価し,既存のBNNや一部の4ビットコンペティタよりも明らかに優れたパフォーマンスを報告した。
関連論文リスト
- BiDense: Binarization for Dense Prediction [62.70804353158387]
BiDenseは、効率よく正確な密度予測タスクのために設計された一般化されたバイナリニューラルネットワーク(BNN)である。
BiDenseは2つの重要なテクニックを取り入れている: 分散適応バイナリー (DAB) とチャネル適応完全精度バイパス (CFB) である。
論文 参考訳(メタデータ) (2024-11-15T16:46:04Z) - ZOBNN: Zero-Overhead Dependable Design of Binary Neural Networks with Deliberately Quantized Parameters [0.0]
本稿では,低精度ニューラルネットワークの3番目の利点として,耐故障性の改善について紹介する。
本稿では,メモリ障害がBNN(State-of-the-art binary neural network)に与える影響を包括的解析により検討する。
本稿では,新しい均一量子化手法により,フロートパラメータの範囲を制限することにより,BNNの信頼性を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-07-06T05:31:11Z) - ReActXGB: A Hybrid Binary Convolutional Neural Network Architecture for Improved Performance and Computational Efficiency [0.0]
我々はReActXGBというハイブリッドモデルを提案し、ReActNet-Aの完全な畳み込み層をXGBoostに置き換える。
この修正の目的は、より低い計算コストを維持しながら、BCNNと実数値ネットワークのパフォーマンスギャップを狭めることである。
論文 参考訳(メタデータ) (2024-05-11T16:38:50Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - Distribution-sensitive Information Retention for Accurate Binary Neural
Network [49.971345958676196]
本稿では、前向きのアクティベーションと後向きの勾配の情報を保持するために、新しいDIR-Net(Distribution-sensitive Information Retention Network)を提案する。
我々のDIR-Netは、主流かつコンパクトなアーキテクチャの下で、SOTAバイナライゼーションアプローチよりも一貫して優れています。
我々は、実世界のリソース制限されたデバイス上でDIR-Netを行い、ストレージの11.1倍の節約と5.4倍のスピードアップを実現した。
論文 参考訳(メタデータ) (2021-09-25T10:59:39Z) - Fully Quantized Image Super-Resolution Networks [81.75002888152159]
効率と精度を両立させるためのフル量子化画像超解像フレームワーク(FQSR)を提案する。
我々は、SRResNet、SRGAN、EDSRを含む複数の主流超解像アーキテクチャに量子化スキームを適用した。
低ビット量子化を用いたFQSRは、5つのベンチマークデータセットの完全精度と比較すると、パー性能で実現できる。
論文 参考訳(メタデータ) (2020-11-29T03:53:49Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。