論文の概要: Network Binarization via Contrastive Learning
- arxiv url: http://arxiv.org/abs/2207.02970v1
- Date: Wed, 6 Jul 2022 21:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 13:36:03.197977
- Title: Network Binarization via Contrastive Learning
- Title(参考訳): コントラスト学習によるネットワークバイナリ化
- Authors: Yuzhang Shang, Dan Xu, Ziliang Zong, Yan Yan
- Abstract要約: バイナリニューラルネットワーク(BNN)を訓練しながら、新しいコントラスト学習フレームワークを構築する。
MIはバイナリとFPのアクティベーション間で共有される情報を計測する指標として導入された。
以上の結果から,本手法は既存の最先端バイナライズ手法の重ね合わせモジュールとして実装可能であることが示唆された。
- 参考スコア(独自算出の注目度): 16.274341164897827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network binarization accelerates deep models by quantizing their
weights and activations into 1-bit. However, there is still a huge performance
gap between Binary Neural Networks (BNNs) and their full-precision (FP)
counterparts. As the quantization error caused by weights binarization has been
reduced in earlier works, the activations binarization becomes the major
obstacle for further improvement of the accuracy. BNN characterises a unique
and interesting structure, where the binary and latent FP activations exist in
the same forward pass (\textit{i.e.} $\text{Binarize}(\mathbf{a}_F) =
\mathbf{a}_B$). To mitigate the information degradation caused by the
binarization operation from FP to binary activations, we establish a novel
contrastive learning framework while training BNNs through the lens of Mutual
Information (MI) maximization. MI is introduced as the metric to measure the
information shared between binary and FP activations, which assists
binarization with contrastive learning. Specifically, the representation
ability of the BNNs is greatly strengthened via pulling the positive pairs with
binary and FP activations from the same input samples, as well as pushing
negative pairs from different samples (the number of negative pairs can be
exponentially large). This benefits the downstream tasks, not only
classification but also segmentation and depth estimation,~\textit{etc}. The
experimental results show that our method can be implemented as a pile-up
module on existing state-of-the-art binarization methods and can remarkably
improve the performance over them on CIFAR-10/100 and ImageNet, in addition to
the great generalization ability on NYUD-v2.
- Abstract(参考訳): ニューラルネットワークのバイナリ化は、重みとアクティベーションを1ビットに量子化することで、深いモデルを加速する。
しかしながら、バイナリニューラルネットワーク(BNN)とフル精度(FP)の間には、依然として大きなパフォーマンスギャップがある。
初期の研究で重み二項化による量子化誤差が減少しているため、活性化二項化は精度をさらに向上させる主要な障害となっている。
BNNは、バイナリと潜在FPの活性化が同じ前方通過(\textit{i.e.} $\text{Binarize}(\mathbf{a}_F) = \mathbf{a}_B$)に存在する、ユニークで興味深い構造を特徴付けている。
FPからバイナリアクティベーションへのバイナライゼーション操作による情報劣化を軽減するため、相互情報(MI)最大化のレンズを用いてBNNをトレーニングしながら、新しいコントラスト学習フレームワークを構築した。
MIは、バイナリとFPのアクティベーション間で共有される情報を計測する指標として導入され、対照的な学習による二項化を支援する。
具体的には、BNNの表現能力は、異なるサンプルから負のペアをプッシュする(負のペアの数は指数関数的に大きい)とともに、同じ入力サンプルから二乗とFPのアクティベーションを持つ正のペアを引いて大幅に強化される。
これは、分類だけでなく、セグメンテーションや深さ推定、~\textit{etc} といった下流タスクに役立つ。
実験結果から,本手法は既存の2値化法に実装でき,cifar-10/100 と imagenet の2値化性能が向上し,nyud-v2 の一般化性も向上した。
関連論文リスト
- BiPer: Binary Neural Networks using a Periodic Function [17.461853355858022]
量子ニューラルネットワークは、重みとアクティベーションの両方に精度の低下した表現を用いる。
バイナリニューラルネットワーク(BNN)は極端量子化のケースであり、わずか1ビットで値を表す。
現在のBNNのアプローチとは対照的に,バイナライゼーションにおいて,バイナリ周期関数 (BiPer) を用いる方法を提案する。
論文 参考訳(メタデータ) (2024-04-01T17:52:17Z) - Basic Binary Convolution Unit for Binarized Image Restoration Network [146.0988597062618]
本研究では,画像復元作業における残差接続,BatchNorm,アクティベーション機能,構造などのバイナリ畳み込みのコンポーネントを再検討する。
本研究の成果と分析に基づいて, 単純で効率的な基本二元畳み込みユニット (BBCU) を設計した。
我々のBBCUは、他のBNNや軽量モデルよりも大幅に優れており、BBCUがバイナライズされたIRネットワークの基本ユニットとして機能することを示しています。
論文 参考訳(メタデータ) (2022-10-02T01:54:40Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - Bimodal Distributed Binarized Neural Networks [3.0778860202909657]
しかし、バイナリ化技術は、完全精度のものと比べれば、不適格な性能劣化に悩まされる。
バイモーダル分散バイナライゼーション法(メソッド名)を提案する。
これにより、ネットワーク重みのバイモーダルな分布がクルトーシス正規化によって引き起こされる。
論文 参考訳(メタデータ) (2022-04-05T06:07:05Z) - Distribution-sensitive Information Retention for Accurate Binary Neural
Network [49.971345958676196]
本稿では、前向きのアクティベーションと後向きの勾配の情報を保持するために、新しいDIR-Net(Distribution-sensitive Information Retention Network)を提案する。
我々のDIR-Netは、主流かつコンパクトなアーキテクチャの下で、SOTAバイナライゼーションアプローチよりも一貫して優れています。
我々は、実世界のリソース制限されたデバイス上でDIR-Netを行い、ストレージの11.1倍の節約と5.4倍のスピードアップを実現した。
論文 参考訳(メタデータ) (2021-09-25T10:59:39Z) - Self-Distribution Binary Neural Networks [18.69165083747967]
重みとアクティベーションの両方がバイナリ(すなわち1ビット表現)である2進ニューラルネットワーク(BNN)について研究する。
SD-BNN(Self-Distribution Biinary Neural Network)を提案する。
CIFAR-10とImageNetデータセットの実験では、提案されたSD-BNNは、最先端(SOTA)BNNよりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-03-03T13:39:52Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - FTBNN: Rethinking Non-linearity for 1-bit CNNs and Going Beyond [23.5996182207431]
本稿では,二項化畳み込み過程が,その誤差を最小限に抑えるために線形性を増大させ,BNNの識別能力を損なうことを示す。
我々は、その矛盾を修正するために、適切な非線形モジュールを再検討し、調整することで、最先端のパフォーマンスを実現する強力なベースラインに繋がる。
論文 参考訳(メタデータ) (2020-10-19T08:11:48Z) - Training Binary Neural Networks through Learning with Noisy Supervision [76.26677550127656]
本稿では,ニューラルネットワーク上の二項化操作を学習の観点から定式化する。
ベンチマークデータセットの実験結果から,提案手法がベースラインよりも一貫した改善を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-10T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。