論文の概要: FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond
- arxiv url: http://arxiv.org/abs/2010.09294v4
- Date: Wed, 30 Dec 2020 09:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:09:28.015573
- Title: FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond
- Title(参考訳): FTBNN: 1ビットCNNの非線形性を再考する
- Authors: Zhuo Su, Linpu Fang, Deke Guo, Dewen Hu, Matti Pietik\"ainen, Li Liu
- Abstract要約: 本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
- 参考スコア(独自算出の注目度): 23.5996182207431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary neural networks (BNNs), where both weights and activations are
binarized into 1 bit, have been widely studied in recent years due to its great
benefit of highly accelerated computation and substantially reduced memory
footprint that appeal to the development of resource constrained devices. In
contrast to previous methods tending to reduce the quantization error for
training BNN structures, we argue that the binarized convolution process owns
an increasing linearity towards the target of minimizing such error, which in
turn hampers BNN's discriminative ability. In this paper, we re-investigate and
tune proper non-linear modules to fix that contradiction, leading to a strong
baseline which achieves state-of-the-art performance on the large-scale
ImageNet dataset in terms of accuracy and training efficiency. To go further,
we find that the proposed BNN model still has much potential to be compressed
by making a better use of the efficient binary operations, without losing
accuracy. In addition, the limited capacity of the BNN model can also be
increased with the help of group execution. Based on these insights, we are
able to improve the baseline with an additional 4~5% top-1 accuracy gain even
with less computational cost. Our code will be made public at
https://github.com/zhuogege1943/ftbnn.
- Abstract(参考訳): 重みとアクティベーションの両方を1ビットにバイナライズするバイナリニューラルネットワーク(BNN)は、高度に高速化された計算とリソース制約されたデバイスの開発に訴えるメモリフットプリントの大幅な削減により、近年広く研究されている。
BNN構造を訓練するための量子化誤差を低減する従来の手法とは対照的に、二項化畳み込み過程はそのような誤差を最小化するターゲットに対して線形性を増大させ、それによってBNNの識別能力を損なう。
本稿では,その矛盾を解消するために,適切な非線形モジュールを再検討し,チューニングし,精度とトレーニング効率の観点から大規模イメージネットデータセットの最先端性能を実現する強力なベースラインを実現する。
さらに,提案するbnnモデルは,精度を損なうことなく,効率的なバイナリ操作をより有効に利用することにより,圧縮される可能性も高いことが判明した。
さらに、グループ実行の助けを借りて、BNNモデルの限られた容量を増やすこともできる。
これらの知見に基づいて,計算コストが低い場合でも,4~5%の精度でベースラインを改善することができる。
コードはhttps://github.com/zhuogege1943/ftbnn.com/で公開します。
関連論文リスト
- Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Binary domain generalization for sparsifying binary neural networks [3.2462411268263964]
バイナリニューラルネットワーク(BNN)は、リソース制約のあるデバイスにおいて、ディープニューラルネットワーク(DNN)ベースのアプリケーションを開発、デプロイするための魅力的なソリューションである。
BNNの軽量プルーニングは性能劣化を招き、BNNの標準バイナライズドメインがタスクに適していないことを示唆している。
この研究は、プルーニング技術に対してより堅牢な標準バイナリドメインを拡張した、より一般的なバイナリドメインを提案する。
論文 参考訳(メタデータ) (2023-06-23T14:32:16Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - FracBNN: Accurate and FPGA-Efficient Binary Neural Networks with
Fractional Activations [20.218382369944152]
binary neural network (bnns) は1ビットの重みとアクティベーションを持つ。
BNNはImageNetのような現実的なデータセットの精度がはるかに低い傾向にある。
本研究では、BNNの精度を大幅に向上させるために分数活性化を利用するFracBNNを提案する。
論文 参考訳(メタデータ) (2020-12-22T17:49:30Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。