論文の概要: Improving Accuracy of Binary Neural Networks using Unbalanced Activation
Distribution
- arxiv url: http://arxiv.org/abs/2012.00938v2
- Date: Tue, 30 Mar 2021 04:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:10:18.405068
- Title: Improving Accuracy of Binary Neural Networks using Unbalanced Activation
Distribution
- Title(参考訳): 不平衡活性化分布を用いたバイナリニューラルネットワークの精度向上
- Authors: Hyungjun Kim, Jihoon Park, Changhun Lee, Jae-Joon Kim
- Abstract要約: 非平衡な活性化分布はBNNの精度を実際に向上させることができることを示す。
また、二項活性化関数のしきい値を調整することにより、二項活性化関数の不均衡分布が生じることを示す。
実験結果から,バイナリアクティベーション関数のしきい値を簡単にシフトすることで,従来のBNNモデルの精度を向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 12.46127622357824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binarization of neural network models is considered as one of the promising
methods to deploy deep neural network models on resource-constrained
environments such as mobile devices. However, Binary Neural Networks (BNNs)
tend to suffer from severe accuracy degradation compared to the full-precision
counterpart model. Several techniques were proposed to improve the accuracy of
BNNs. One of the approaches is to balance the distribution of binary
activations so that the amount of information in the binary activations becomes
maximum. Based on extensive analysis, in stark contrast to previous work, we
argue that unbalanced activation distribution can actually improve the accuracy
of BNNs. We also show that adjusting the threshold values of binary activation
functions results in the unbalanced distribution of the binary activation,
which increases the accuracy of BNN models. Experimental results show that the
accuracy of previous BNN models (e.g. XNOR-Net and Bi-Real-Net) can be improved
by simply shifting the threshold values of binary activation functions without
requiring any other modification.
- Abstract(参考訳): ニューラルネットワークモデルのバイナリ化は、モバイルデバイスなどのリソース制約のある環境にディープニューラルネットワークモデルをデプロイするための有望な方法の1つであると考えられている。
しかしながら、BNN(Binary Neural Networks)は、完全精度のモデルと比較して精度の低下に悩まされる傾向にある。
BNNの精度を向上させるためにいくつかの手法が提案された。
アプローチのひとつとして、バイナリアクティベーションの情報量が最大になるように、バイナリアクティベーションの分散をバランスさせることがある。
従来の研究とは対照的に、広範に分析した結果、不均衡な活性化分布はBNNの精度を実際に向上させることができると論じている。
また,バイナリアクティベーション関数のしきい値を調整することで,バイナリアクティベーションの不均衡分布が生じ,BNNモデルの精度が向上することを示す。
実験の結果,従来のbnnモデル(例)の精度が向上した。
XNOR-NetとBi-Real-Net)は、バイナリアクティベーション関数のしきい値のシフトを、他の変更を必要とせずに簡単に行うことで改善することができる。
関連論文リスト
- BiDense: Binarization for Dense Prediction [62.70804353158387]
BiDenseは、効率よく正確な密度予測タスクのために設計された一般化されたバイナリニューラルネットワーク(BNN)である。
BiDenseは2つの重要なテクニックを取り入れている: 分散適応バイナリー (DAB) とチャネル適応完全精度バイパス (CFB) である。
論文 参考訳(メタデータ) (2024-11-15T16:46:04Z) - Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - Bimodal Distributed Binarized Neural Networks [3.0778860202909657]
しかし、バイナリ化技術は、完全精度のものと比べれば、不適格な性能劣化に悩まされる。
バイモーダル分散バイナライゼーション法(メソッド名)を提案する。
これにより、ネットワーク重みのバイモーダルな分布がクルトーシス正規化によって引き起こされる。
論文 参考訳(メタデータ) (2022-04-05T06:07:05Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Self-Distribution Binary Neural Networks [18.69165083747967]
重みとアクティベーションの両方がバイナリ(すなわち1ビット表現)である2進ニューラルネットワーク(BNN)について研究する。
SD-BNN(Self-Distribution Biinary Neural Network)を提案する。
CIFAR-10とImageNetデータセットの実験では、提案されたSD-BNNは、最先端(SOTA)BNNよりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-03-03T13:39:52Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - BiSNN: Training Spiking Neural Networks with Binary Weights via Bayesian
Learning [37.376989855065545]
Spiking Neural Networks(SNN)は、エネルギー効率を高める生物学的にインスパイアされたダイナミックなイベント駆動モデルです。
時間的にスパースなバイナリアクティベーションとバイナリ重みの利点を組み合わせたSNNモデルが導入された。
実験は、フル精度実装に関するパフォーマンス損失を検証します。
論文 参考訳(メタデータ) (2020-12-15T14:06:36Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。