論文の概要: Elastic-Link for Binarized Neural Network
- arxiv url: http://arxiv.org/abs/2112.10149v1
- Date: Sun, 19 Dec 2021 13:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 06:27:10.941249
- Title: Elastic-Link for Binarized Neural Network
- Title(参考訳): 二元化ニューラルネットワークのための弾性リンク
- Authors: Jie Hu, Wu Ziheng, Vince Tan, Zhilin Lu, Mengze Zeng, Enhua Wu
- Abstract要約: ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
- 参考スコア(独自算出の注目度): 9.83865304744923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that Binarized Neural Networks (BNNs) are able to
greatly reduce computational costs and memory footprints, facilitating model
deployment on resource-constrained devices. However, in comparison to their
full-precision counterparts, BNNs suffer from severe accuracy degradation.
Research aiming to reduce this accuracy gap has thus far largely focused on
specific network architectures with few or no 1x1 convolutional layers, for
which standard binarization methods do not work well. Because 1x1 convolutions
are common in the design of modern architectures (e.g. GoogleNet, ResNet,
DenseNet), it is crucial to develop a method to binarize them effectively for
BNNs to be more widely adopted. In this work, we propose an "Elastic-Link" (EL)
module to enrich information flow within a BNN by adaptively adding real-valued
input features to the subsequent convolutional output features. The proposed EL
module is easily implemented and can be used in conjunction with other methods
for BNNs. We demonstrate that adding EL to BNNs produces a significant
improvement on the challenging large-scale ImageNet dataset. For example, we
raise the top-1 accuracy of binarized ResNet26 from 57.9% to 64.0%. EL also
aids convergence in the training of binarized MobileNet, for which a top-1
accuracy of 56.4% is achieved. Finally, with the integration of ReActNet, it
yields a new state-of-the-art result of 71.9% top-1 accuracy.
- Abstract(参考訳): 最近の研究によると、BNN(Binarized Neural Networks)は計算コストとメモリフットプリントを大幅に削減し、リソース制約のあるデバイスへのモデル展開を容易にする。
しかし、その完全精度と比較して、BNNは深刻な精度劣化に悩まされている。
この精度のギャップを減らすことを目的とした研究は、これまでのところ、1x1畳み込み層がほとんどない特定のネットワークアーキテクチャに重点を置いてきた。
1x1の畳み込みは現代のアーキテクチャ(例えば、GoogleNet、ResNet、DenseNet)の設計において一般的であるため、BNNがより広く採用されるように効果的に2項化する方法を開発することが重要である。
本研究では,その後の畳み込み出力機能に実値入力機能を適応的に付加することにより,BNN内の情報フローを充実させる"Elastic-Link" (EL) モジュールを提案する。
提案するELモジュールは容易に実装でき、他のBNNメソッドと併用することができる。
ELをBNNに追加することで、大規模なImageNetデータセットに大きな改善がもたらされることを示す。
例えば、二元化resnet26のtop-1精度を57.9%から64.0%に引き上げる。
ELはバイナライズされたMobileNetのトレーニングの収束を支援し、トップ1の精度は56.4%である。
最後に、ReActNetの統合により、71.9%の精度で新しい最先端の結果が得られる。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - ReActXGB: A Hybrid Binary Convolutional Neural Network Architecture for Improved Performance and Computational Efficiency [0.0]
我々はReActXGBというハイブリッドモデルを提案し、ReActNet-Aの完全な畳み込み層をXGBoostに置き換える。
この修正の目的は、より低い計算コストを維持しながら、BCNNと実数値ネットワークのパフォーマンスギャップを狭めることである。
論文 参考訳(メタデータ) (2024-05-11T16:38:50Z) - Boosting Binary Neural Networks via Dynamic Thresholds Learning [21.835748440099586]
我々はDySignを導入し、情報損失を減らし、BNNの代表能力を高める。
DCNNでは、2つのバックボーンに基づくDyBCNNが、ImageNetデータセット上で71.2%と67.4%のトップ1精度を達成した。
ViTsの場合、DyCCTはImageNetデータセット上で完全にバイナライズされたViTsと56.1%のコンボリューショナル埋め込み層の優位性を示す。
論文 参考訳(メタデータ) (2022-11-04T07:18:21Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Dynamic Binary Neural Network by learning channel-wise thresholds [9.432747511001246]
信号関数の動的学習可能なチャンネルワイドしきい値とPRELUのシフトパラメータを組み込んだ動的BNN(DyBNN)を提案する。
DyBNNはReActNetの2つのバックボーン(MobileNetV1とResNet18)に基づいており、ImageNetデータセット上で71.2%と67.4%のトップ1精度を達成した。
論文 参考訳(メタデータ) (2021-10-08T17:41:36Z) - Self-Distribution Binary Neural Networks [18.69165083747967]
重みとアクティベーションの両方がバイナリ(すなわち1ビット表現)である2進ニューラルネットワーク(BNN)について研究する。
SD-BNN(Self-Distribution Biinary Neural Network)を提案する。
CIFAR-10とImageNetデータセットの実験では、提案されたSD-BNNは、最先端(SOTA)BNNよりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-03-03T13:39:52Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。