論文の概要: Join the High Accuracy Club on ImageNet with A Binary Neural Network
Ticket
- arxiv url: http://arxiv.org/abs/2211.12933v1
- Date: Wed, 23 Nov 2022 13:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 14:05:46.338977
- Title: Join the High Accuracy Club on ImageNet with A Binary Neural Network
Ticket
- Title(参考訳): バイナリニューラルネットワークによるImageNetの高精度クラブへの参加
- Authors: Nianhui Guo, Joseph Bethge, Christoph Meinel, Haojin Yang
- Abstract要約: ILSVRC-2012 ImageNetにおいて、バイナリニューラルネットワークが重要な精度レベル(例えば80%)をどうやって達成できるのか?
我々は、バイナリアーキテクチャとその最適化プロセスの包括的な研究に基づいて、新しいバイナリアーキテクチャBNextを設計する。
極めて正確なバイナリモデルを訓練する際の直感的オーバーフィッティング問題を軽減するために,新しい知識蒸留手法を提案する。
- 参考スコア(独自算出の注目度): 10.552465253379134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary neural networks are the extreme case of network quantization, which
has long been thought of as a potential edge machine learning solution.
However, the significant accuracy gap to the full-precision counterparts
restricts their creative potential for mobile applications. In this work, we
revisit the potential of binary neural networks and focus on a compelling but
unanswered problem: how can a binary neural network achieve the crucial
accuracy level (e.g., 80%) on ILSVRC-2012 ImageNet? We achieve this goal by
enhancing the optimization process from three complementary perspectives: (1)
We design a novel binary architecture BNext based on a comprehensive study of
binary architectures and their optimization process. (2) We propose a novel
knowledge-distillation technique to alleviate the counter-intuitive overfitting
problem observed when attempting to train extremely accurate binary models. (3)
We analyze the data augmentation pipeline for binary networks and modernize it
with up-to-date techniques from full-precision models. The evaluation results
on ImageNet show that BNext, for the first time, pushes the binary model
accuracy boundary to 80.57% and significantly outperforms all the existing
binary networks. Code and trained models are available at: (blind URL, see
appendix).
- Abstract(参考訳): バイナリニューラルネットワークは、エッジ機械学習ソリューションとして長年考えられてきた、ネットワーク量子化の極端なケースである。
しかし、実際の精度との大きなギャップは、モバイルアプリケーションに対する創造的可能性を制限する。
ILSVRC-2012 ImageNetでは、バイナリニューラルネットワークが重要な精度レベル(例えば80%)をどうやって達成できるのか?
我々は,(1)バイナリアーキテクチャの包括的研究と最適化プロセスに基づいて,新しいバイナリアーキテクチャbnextを設計すること,という3つの相補的な視点から最適化プロセスを強化することで,この目標を達成している。
2) 極めて正確なバイナリモデルを訓練する際の反直観的オーバーフィッティング問題を緩和する新しい知識蒸留手法を提案する。
3) バイナリネットワークのデータ拡張パイプラインを解析し, 高精度モデルによる最新の手法を用いて近代化する。
ImageNetの評価結果によると、BNextは初めてバイナリモデルの精度境界を80.57%に押し上げ、既存の全てのバイナリネットワークを大幅に上回っている。
コードとトレーニングされたモデルは、 (blind url, appendix を参照) で利用可能である。
関連論文リスト
- Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Improving Accuracy of Binary Neural Networks using Unbalanced Activation
Distribution [12.46127622357824]
非平衡な活性化分布はBNNの精度を実際に向上させることができることを示す。
また、二項活性化関数のしきい値を調整することにより、二項活性化関数の不均衡分布が生じることを示す。
実験結果から,バイナリアクティベーション関数のしきい値を簡単にシフトすることで,従来のBNNモデルの精度を向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-12-02T02:49:53Z) - High-Capacity Expert Binary Networks [56.87581500474093]
ネットワークバイナライゼーションは、効率的なディープモデルを作成するための、ハードウェア対応の有望な方向性である。
メモリと計算上の優位性にもかかわらず、バイナリモデルとその実数値モデルの間の精度のギャップを縮めることは、未解決の課題である。
本稿では,入力特徴に基づく時間に1つのデータ固有のエキスパートバイナリフィルタを選択することを学習することで,初めてバイナリネットワークに条件付きコンピューティングを適合させる専門家バイナリ畳み込みを提案する。
論文 参考訳(メタデータ) (2020-10-07T17:58:10Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Training Binary Neural Networks with Real-to-Binary Convolutions [52.91164959767517]
完全精度のネットワークのうち、数パーセント以内にバイナリネットワークをトレーニングする方法を示します。
我々は、最先端の精度をすでに達成している強力なベースラインを構築する方法を示す。
すべての改善をまとめると、提案したモデルは、ImageNet上で5%以上のトップ1精度で、現在の最先端の技術を上回ります。
論文 参考訳(メタデータ) (2020-03-25T17:54:38Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z) - Exploring the Connection Between Binary and Spiking Neural Networks [1.329054857829016]
両立ニューラルネットワークとスパイクニューラルネットワークの訓練における最近のアルゴリズムの進歩を橋渡しする。
極端量子化システムにおけるスパイキングニューラルネットワークのトレーニングは,大規模データセット上でのほぼ完全な精度向上をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-24T03:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。