論文の概要: "BNN - BN = ?": Training Binary Neural Networks without Batch
Normalization
- arxiv url: http://arxiv.org/abs/2104.08215v1
- Date: Fri, 16 Apr 2021 16:46:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:31:50.038123
- Title: "BNN - BN = ?": Training Binary Neural Networks without Batch
Normalization
- Title(参考訳): 「BNN - BN = ?
「バッチ正規化のないバイナリニューラルネットワークのトレーニング
- Authors: Tianlong Chen, Zhenyu Zhang, Xu Ouyang, Zechun Liu, Zhiqiang Shen,
Zhangyang Wang
- Abstract要約: バッチ正規化(BN)は、最先端のバイナリニューラルネットワーク(BNN)に不可欠な重要なファシリテータである
BNNのトレーニングに彼らのフレームワークを拡張し、BNNのトレーニングや推論体制からBNを除去できることを初めて実証します。
- 参考スコア(独自算出の注目度): 92.23297927690149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Batch normalization (BN) is a key facilitator and considered essential for
state-of-the-art binary neural networks (BNN). However, the BN layer is costly
to calculate and is typically implemented with non-binary parameters, leaving a
hurdle for the efficient implementation of BNN training. It also introduces
undesirable dependence between samples within each batch. Inspired by the
latest advance on Batch Normalization Free (BN-Free) training, we extend their
framework to training BNNs, and for the first time demonstrate that BNs can be
completed removed from BNN training and inference regimes. By plugging in and
customizing techniques including adaptive gradient clipping, scale weight
standardization, and specialized bottleneck block, a BN-free BNN is capable of
maintaining competitive accuracy compared to its BN-based counterpart.
Extensive experiments validate the effectiveness of our proposal across diverse
BNN backbones and datasets. For example, after removing BNs from the
state-of-the-art ReActNets, it can still be trained with our proposed
methodology to achieve 92.08%, 68.34%, and 68.0% accuracy on CIFAR-10,
CIFAR-100, and ImageNet respectively, with marginal performance drop
(0.23%~0.44% on CIFAR and 1.40% on ImageNet). Codes and pre-trained models are
available at: https://github.com/VITA-Group/BNN_NoBN.
- Abstract(参考訳): バッチ正規化(BN)は、最先端のバイナリニューラルネットワーク(BNN)に不可欠な重要なファシリテータである。
しかし、BN層は計算に費用がかかり、通常は非バイナリパラメータで実装されるため、BNNトレーニングの効率的な実装にはハードルが残されている。
また、各バッチ内のサンプル間の望ましくない依存を導入する。
最新のBatch Normalization Free(BN-Free)トレーニングに触発されて、BNNのトレーニングに彼らのフレームワークを拡張し、BNNのトレーニングや推論体制からBNを除去できることを初めて実証した。
適応勾配クリッピング、スケールウェイト標準化、特殊ボトルネックブロックなどのテクニックをプラグインしてカスタマイズすることにより、BNフリーのBNNはBNベースに比べて競争精度を維持することができる。
広範な実験により,BNNのバックボーンやデータセットにまたがる提案の有効性が検証された。
例えば、最先端のReActNetsからBNを削除した後も、CIFAR-10、CIFAR-100、ImageNetでそれぞれ92.08%、68.34%、68.0%の精度を達成するための提案された手法でトレーニングすることができる(CIFARでは0.23%〜0.44%、ImageNetでは1.40%)。
コードと事前訓練されたモデルは、https://github.com/VITA-Group/BNN_NoBN.comで入手できる。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Overcoming Recency Bias of Normalization Statistics in Continual
Learning: Balance and Adaptation [67.77048565738728]
継続的な学習には、一連のタスクを学習し、彼らの知識を適切にバランスさせることが含まれる。
本稿では,タスク・ワイド・コントリビューションに適応するためのベイズ的戦略を適切に取り入れた BN の適応バランス (AdaB$2$N) を提案する。
提案手法は,幅広いベンチマークにおいて,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2023-10-13T04:50:40Z) - Multi-Objective Linear Ensembles for Robust and Sparse Training of Few-Bit Neural Networks [5.246498560938275]
BNN(Binarized Neural Networks)とINN(Neural Networks)を併用した,数ビット離散値ニューラルネットワークの事例について検討する。
コントリビューションは、可能なクラスごとにひとつのNNをトレーニングし、最終的な出力を予測するために多数決方式を適用する、多目的アンサンブルアプローチである。
我々は,このBeMiアプローチを,BNN学習に焦点をあてた問題解決型NNトレーニングと勾配型トレーニングの最先端技術と比較する。
論文 参考訳(メタデータ) (2022-12-07T14:23:43Z) - An Adaptive Batch Normalization in Deep Learning [0.0]
バッチ正規化(BN)は、深層畳み込みニューラルネットワークのトレーニングを加速し、安定させる方法である。
本稿では、BNを必要とするデータとそれを必要としないデータを分離する、しきい値に基づく適応的なBNアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-03T12:12:56Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Diagnosing Batch Normalization in Class Incremental Learning [39.70552266952221]
バッチ正規化(BN)は中間特徴写像を標準化し、訓練安定性と収束性を改善するために広く検証されている。
分類バイアスを排除しつつ,より優れた特徴抽出器を訓練することにより,この問題に対処するBN Tricksを提案する。
BN Tricksが採用されているすべてのベースラインに大幅なパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-02-16T12:38:43Z) - Self-Distribution Binary Neural Networks [18.69165083747967]
重みとアクティベーションの両方がバイナリ(すなわち1ビット表現)である2進ニューラルネットワーク(BNN)について研究する。
SD-BNN(Self-Distribution Biinary Neural Network)を提案する。
CIFAR-10とImageNetデータセットの実験では、提案されたSD-BNNは、最先端(SOTA)BNNよりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-03-03T13:39:52Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。