論文の概要: Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies
- arxiv url: http://arxiv.org/abs/2209.01404v1
- Date: Sat, 3 Sep 2022 11:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:57:25.362952
- Title: Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies
- Title(参考訳): 文脈依存のモデリングによる正確なバイナリニューラルネットワークの実現
- Authors: Xingrun Xing, Yangguang Li, Wei Li, Wenrui Ding, Yalong Jiang, Yufeng
Wang, Jing Shao, Chunlei Liu, Xianglong Liu
- Abstract要約: 既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
- 参考スコア(独自算出の注目度): 52.691032025163175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing Binary Neural Networks (BNNs) mainly operate on local convolutions
with binarization function. However, such simple bit operations lack the
ability of modeling contextual dependencies, which is critical for learning
discriminative deep representations in vision models. In this work, we tackle
this issue by presenting new designs of binary neural modules, which enables
BNNs to learn effective contextual dependencies. First, we propose a binary
multi-layer perceptron (MLP) block as an alternative to binary convolution
blocks to directly model contextual dependencies. Both short-range and
long-range feature dependencies are modeled by binary MLPs, where the former
provides local inductive bias and the latter breaks limited receptive field in
binary convolutions. Second, to improve the robustness of binary models with
contextual dependencies, we compute the contextual dynamic embeddings to
determine the binarization thresholds in general binary convolutional blocks.
Armed with our binary MLP blocks and improved binary convolution, we build the
BNNs with explicit Contextual Dependency modeling, termed as BCDNet. On the
standard ImageNet-1K classification benchmark, the BCDNet achieves 72.3% Top-1
accuracy and outperforms leading binary methods by a large margin. In
particular, the proposed BCDNet exceeds the state-of-the-art ReActNet-A by 2.9%
Top-1 accuracy with similar operations. Our code is available at
https://github.com/Sense-GVT/BCDN
- Abstract(参考訳): 既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
しかし、そのような単純なビット操作は文脈依存をモデル化する能力に欠けており、視覚モデルにおける識別的深層表現の学習に不可欠である。
本稿では,bnnが効果的な文脈依存性を学習できるバイナリニューラルモジュールの新しい設計を提案することで,この問題に取り組む。
まず,コンテキスト依存を直接モデル化するバイナリ畳み込みブロックの代替として,バイナリ多層パーセプトロン(mlp)ブロックを提案する。
短距離と長距離の機能依存性はいずれもバイナリmlpによってモデル化され、前者は局所帰納的バイアスを提供し、後者はバイナリ畳み込みにおいて限定的な受容的フィールドを壊す。
次に,コンテキスト依存を持つバイナリモデルのロバスト性を改善するために,コンテキスト動的埋め込みを計算して,一般的なバイナリ畳み込みブロックにおけるバイナリ化しきい値を決定する。
バイナリのMLPブロックとバイナリの畳み込みを改善して、BCDNetと呼ばれる明示的なコンテキスト依存モデリングでBNNを構築します。
標準のImageNet-1K分類ベンチマークでは、BCDNetは72.3%のTop-1精度を達成し、先行するバイナリメソッドを大きなマージンで上回っている。
特に、提案されたBCDNetは最先端のReActNet-Aを2.9%の精度で上回っている。
私たちのコードはhttps://github.com/Sense-GVT/BCDNで利用可能です。
関連論文リスト
- Compacting Binary Neural Networks by Sparse Kernel Selection [58.84313343190488]
本稿は,BNNにおけるバイナリカーネルの分散化がほぼ不可能であることを示すものである。
我々は、選択過程をエンドツーエンドに最適化するだけでなく、選択したコードワードの非反復的占有を維持できる置換ストレートスルー推定器(PSTE)を開発した。
実験により,提案手法はモデルサイズとビット幅の計算コストの両方を削減し,同等の予算下での最先端のBNNと比較して精度の向上を実現する。
論文 参考訳(メタデータ) (2023-03-25T13:53:02Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - AdaBin: Improving Binary Neural Networks with Adaptive Binary Sets [27.022212653067367]
本稿では,重みとアクティベーションを共に1ビット値に分割したBNN(Binary Neural Networks)について検討する。
最適二元集合を適応的に得るために、AdaBin と呼ばれる単純で効果的なアプローチを提案する。
ベンチマークモデルとデータセットの実験結果は、提案されたAdaBinが最先端のパフォーマンスを達成可能であることを示している。
論文 参考訳(メタデータ) (2022-08-17T05:43:33Z) - Network Binarization via Contrastive Learning [16.274341164897827]
バイナリニューラルネットワーク(BNN)を訓練しながら、新しいコントラスト学習フレームワークを構築する。
MIはバイナリとFPのアクティベーション間で共有される情報を計測する指標として導入された。
以上の結果から,本手法は既存の最先端バイナライズ手法の重ね合わせモジュールとして実装可能であることが示唆された。
論文 参考訳(メタデータ) (2022-07-06T21:04:53Z) - Bimodal Distributed Binarized Neural Networks [3.0778860202909657]
しかし、バイナリ化技術は、完全精度のものと比べれば、不適格な性能劣化に悩まされる。
バイモーダル分散バイナライゼーション法(メソッド名)を提案する。
これにより、ネットワーク重みのバイモーダルな分布がクルトーシス正規化によって引き起こされる。
論文 参考訳(メタデータ) (2022-04-05T06:07:05Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。