論文の概要: MeliusNet: Can Binary Neural Networks Achieve MobileNet-level Accuracy?
- arxiv url: http://arxiv.org/abs/2001.05936v2
- Date: Tue, 24 Mar 2020 11:52:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 23:26:51.887398
- Title: MeliusNet: Can Binary Neural Networks Achieve MobileNet-level Accuracy?
- Title(参考訳): meliusnet: バイナリニューラルネットワークはモバイルネットレベルの精度を実現できますか?
- Authors: Joseph Bethge, Christian Bartz, Haojin Yang, Ying Chen, and Christoph
Meinel
- Abstract要約: バイナリニューラルネットワーク(BNN)は、典型的な32ビット浮動小数点値の代わりに2重みとアクティベーションを使用するニューラルネットワークである。
本稿では,特徴量を増加させるDenseBlockと,特徴量を増加させるAdvancedBlockというアーキテクチャアプローチを提案する。
- 参考スコア(独自算出の注目度): 12.050205584630922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary Neural Networks (BNNs) are neural networks which use binary weights
and activations instead of the typical 32-bit floating point values. They have
reduced model sizes and allow for efficient inference on mobile or embedded
devices with limited power and computational resources. However, the
binarization of weights and activations leads to feature maps of lower quality
and lower capacity and thus a drop in accuracy compared to traditional
networks. Previous work has increased the number of channels or used multiple
binary bases to alleviate these problems. In this paper, we instead present an
architectural approach: MeliusNet. It consists of alternating a DenseBlock,
which increases the feature capacity, and our proposed ImprovementBlock, which
increases the feature quality. Experiments on the ImageNet dataset demonstrate
the superior performance of our MeliusNet over a variety of popular binary
architectures with regards to both computation savings and accuracy.
Furthermore, with our method we trained BNN models, which for the first time
can match the accuracy of the popular compact network MobileNet-v1 in terms of
model size, number of operations and accuracy. Our code is published online at
https://github.com/hpi-xnor/BMXNet-v2
- Abstract(参考訳): binary neural network (bnns) は、典型的な32ビット浮動小数点値の代わりにバイナリ重みとアクティベーションを使用するニューラルネットワークである。
モデルサイズを削減し、限られた電力と計算資源でモバイルまたは組み込みデバイス上で効率的な推論を可能にする。
しかし、重みとアクティベーションの2値化は、品質とキャパシティの低さを特徴付ける結果となり、従来のネットワークと比較して精度が低下する。
以前の作業はチャネルの数を増やしたり、これらの問題を緩和するために複数のバイナリベースを使用したりしていた。
本稿では,その代わりにアーキテクチャ的アプローチであるmeliusnetを提案する。
機能キャパシティを増加させる分厚いブロックと、機能品質を向上させる改良ブロックで構成されています。
ImageNetデータセットの実験では、計算の保存と精度の両方に関して、さまざまな一般的なバイナリアーキテクチャよりも、MeliusNetの方が優れたパフォーマンスを示している。
さらに,本手法を用いてBNNモデルを訓練し,モデルサイズ,操作数,精度の点で,人気のコンパクトネットワークMobileNet-v1の精度に初めて適合することを示した。
私たちのコードはhttps://github.com/hpi-xnor/BMXNet-v2で公開されている。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - BoolNet: Minimizing The Energy Consumption of Binary Neural Networks [21.78874958231522]
一般的な32ビットコンポーネントを使わずに新しいBNNアーキテクチャを提案する: textitBoolNet。
本稿では,一般的なBNNアーキテクチャであるBi-RealNetよりも1.2%高い精度で,BoolNetが4.6倍のエネルギー削減を実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-13T13:37:31Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets [65.28292822614418]
解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供する。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
論文 参考訳(メタデータ) (2020-10-28T08:49:45Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z) - Towards Lossless Binary Convolutional Neural Networks Using Piecewise
Approximation [4.023728681102073]
CNNは算術演算の数とメモリストレージのサイズを大幅に減らすことができる。
しかし、単一のバイナリCNNと複数のバイナリCNNの精度劣化は、現代のアーキテクチャでは受け入れられない。
完全精度の重みとアクティベーションを近似することにより、精度の低下を低減できる複数のバイナリCNNに対するPiecewise Approximationスキームを提案する。
論文 参考訳(メタデータ) (2020-08-08T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。