論文の概要: LAB: Learnable Activation Binarizer for Binary Neural Networks
- arxiv url: http://arxiv.org/abs/2210.13858v1
- Date: Tue, 25 Oct 2022 09:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:12:18.970519
- Title: LAB: Learnable Activation Binarizer for Binary Neural Networks
- Title(参考訳): LAB: バイナリニューラルネットワークのための学習可能なアクティベーションバイナライザ
- Authors: Sieger Falkena, Hadi Jamali-Rad, Jan van Gemert
- Abstract要約: バイナリニューラルネットワーク(BNN)は、エッジデバイスにパワーハングリーなディープラーニングをもたらすために、多くの注目を集めている。
sign()はユニークさのボトルネックであり、ネットワーク全体の情報伝達を制限することを議論し、説明します。
本稿では,学習可能なアクティベーションバイナライザ (LAB) を組み込むことにより,ネットワークが層ごとの微粒化バイナライズカーネルを学習できるようにする。
- 参考スコア(独自算出の注目度): 12.738664262965747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary Neural Networks (BNNs) are receiving an upsurge of attention for
bringing power-hungry deep learning towards edge devices. The traditional
wisdom in this space is to employ sign() for binarizing featuremaps. We argue
and illustrate that sign() is a uniqueness bottleneck, limiting information
propagation throughout the network. To alleviate this, we propose to dispense
sign(), replacing it with a learnable activation binarizer (LAB), allowing the
network to learn a fine-grained binarization kernel per layer - as opposed to
global thresholding. LAB is a novel universal module that can seamlessly be
integrated into existing architectures. To confirm this, we plug it into four
seminal BNNs and show a considerable performance boost at the cost of tolerable
increase in delay and complexity. Finally, we build an end-to-end BNN (coined
as LAB-BNN) around LAB, and demonstrate that it achieves competitive
performance on par with the state-of-the-art on ImageNet.
- Abstract(参考訳): binary neural networks(bnns)は、エッジデバイスにパワーハングリーなディープラーニングをもたらすことで、注目を集めている。
この空間の伝統的な知恵は、特徴写像をバイナライズするために sign() を使うことである。
sign() は一意性のボトルネックであり、ネットワーク全体の情報伝達を制限している。
そこで本研究では,学習可能なアクティベーションバイナライザ (LAB) に置き換えて,ネットワークがグローバルなしきい値化とは対照的に,層ごとの粒度の細かいバイナライズカーネルを学習できるようにする。
LABは、既存のアーキテクチャにシームレスに統合できる新しいユニバーサルモジュールである。
これを確認するため、4つのseminal bnnにプラグインし、許容できる遅延と複雑さの増加のコストでかなりのパフォーマンス向上を示す。
最後に、LABを中心にエンドツーエンドのBNN(LAB-BNN)を構築し、ImageNetの最先端技術に匹敵する競争性能を実現することを示す。
関連論文リスト
- Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Binary domain generalization for sparsifying binary neural networks [3.2462411268263964]
バイナリニューラルネットワーク(BNN)は、リソース制約のあるデバイスにおいて、ディープニューラルネットワーク(DNN)ベースのアプリケーションを開発、デプロイするための魅力的なソリューションである。
BNNの軽量プルーニングは性能劣化を招き、BNNの標準バイナライズドメインがタスクに適していないことを示唆している。
この研究は、プルーニング技術に対してより堅牢な標準バイナリドメインを拡張した、より一般的なバイナリドメインを提案する。
論文 参考訳(メタデータ) (2023-06-23T14:32:16Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - Network Binarization via Contrastive Learning [16.274341164897827]
バイナリニューラルネットワーク(BNN)を訓練しながら、新しいコントラスト学習フレームワークを構築する。
MIはバイナリとFPのアクティベーション間で共有される情報を計測する指標として導入された。
以上の結果から,本手法は既存の最先端バイナライズ手法の重ね合わせモジュールとして実装可能であることが示唆された。
論文 参考訳(メタデータ) (2022-07-06T21:04:53Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - BCNN: Binary Complex Neural Network [16.82755328827758]
バイナリニューラルネットワーク(BNN)は、リソース制限のあるハードウェアを備えたエッジサイドアプリケーションにおいて、大きな可能性を秘めている。
本稿では,BNNに複雑な表現を導入し,バイナリ・コンプレックス・ニューラルネットワークを提案する。
BCNNは、複雑な表現を通じて学習能力を強化し、複雑な値の入力データに適用性を拡張することにより、BNNを改善している。
論文 参考訳(メタデータ) (2021-03-28T03:35:24Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。