論文の概要: Binarizing by Classification: Is soft function really necessary?
- arxiv url: http://arxiv.org/abs/2205.07433v3
- Date: Sun, 16 Jul 2023 07:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 00:49:03.057034
- Title: Binarizing by Classification: Is soft function really necessary?
- Title(参考訳): 分類によるバイナリ化:ソフト機能は本当に必要か?
- Authors: Yefei He, Luoming Zhang, Weijia Wu, Hong Zhou
- Abstract要約: 本稿では,二項分類問題としてネットワークバイナライゼーションに取り組むことを提案する。
また、ポーズ推定モデルの軽量化手法としてバイナライゼーションを用いる。
提案手法により,最大60.6ドルのmAPを初めて達成できる。
- 参考スコア(独自算出の注目度): 4.329951775163721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary neural networks leverage $\mathrm{Sign}$ function to binarize weights
and activations, which require gradient estimators to overcome its
non-differentiability and will inevitably bring gradient errors during
backpropagation. Although many hand-designed soft functions have been proposed
as gradient estimators to better approximate gradients, their mechanism is not
clear and there are still huge performance gaps between binary models and their
full-precision counterparts. To address these issues and reduce gradient error,
we propose to tackle network binarization as a binary classification problem
and use a multi-layer perceptron (MLP) as the classifier in the forward pass
and gradient estimator in the backward pass. Benefiting from the MLP's
theoretical capability to fit any continuous function, it can be adaptively
learned to binarize networks and backpropagate gradients without any prior
knowledge of soft functions. From this perspective, we further empirically
justify that even a simple linear function can outperform previous complex soft
functions. Extensive experiments demonstrate that the proposed method yields
surprising performance both in image classification and human pose estimation
tasks. Specifically, we achieve $65.7\%$ top-1 accuracy of ResNet-34 on
ImageNet dataset, with an absolute improvement of $2.6\%$. Moreover, we take
binarization as a lightweighting approach for pose estimation models and
propose well-designed binary pose estimation networks SBPN and BHRNet. When
evaluating on the challenging Microsoft COCO keypoint dataset, the proposed
method enables binary networks to achieve a mAP of up to $60.6$ for the first
time. Experiments conducted on real platforms demonstrate that BNN achieves a
better balance between performance and computational complexity, especially
when computational resources are extremely low.
- Abstract(参考訳): 二項ニューラルネットワークは、重みとアクティベーションを二項化するために$\mathrm{Sign}$関数を利用する。
手動設計のソフト関数の多くは勾配推定器として提案されているが、そのメカニズムは明確ではなく、2進モデルと完全精度モデルの間には大きな性能差がある。
これらの問題に対処し、勾配誤差を減らすため、二元分類問題としてネットワークバイナリ化に取り組み、前方パスの分類器として多層パーセプトロン(mlp)、後方パスの勾配推定器を用いる。
連続関数に適合する理論的能力から、ネットワークとバックプロパゲート勾配を、ソフト関数の事前の知識なしに二項化するために適応的に学習することができる。
この観点から、単純な線型関数でさえ、以前の複素ソフト関数より優れていることを実証的に正当化する。
大規模な実験により,提案手法は画像分類と人間のポーズ推定の双方において驚くべき性能を示した。
具体的には、imagenetデータセット上のresnet-34の65.7\%$ top-1精度を達成し、絶対的な改善は2.6\%$です。
さらに、ポーズ推定モデルの軽量化手法としてバイナライゼーションを採用し、よく設計されたバイナリポーズ推定ネットワーク SBPN と BHRNet を提案する。
挑戦的なMicrosoft COCOキーポイントデータセットを評価する際、提案手法によりバイナリネットワークが初めて60.6ドルまでのmAPを達成できる。
実プラットフォーム上で行った実験は、特に計算資源が極端に低い場合、BNNが性能と計算複雑性のバランスを良くすることを示した。
関連論文リスト
- Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Provably Efficient Neural Offline Reinforcement Learning via Perturbed
Rewards [33.88533898709351]
VIPeRは、ランダム化された値関数のアイデアと悲観主義の原理を一致させる。
オフラインデータを複数回摂動することで、暗黙的に悲観性を得る。
ニューラルネットワーク関数近似を用いた一般的なマルコフ決定過程(MDP)において、証明可能かつ計算的に効率的である。
論文 参考訳(メタデータ) (2023-02-24T17:52:12Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - AdaBin: Improving Binary Neural Networks with Adaptive Binary Sets [27.022212653067367]
本稿では,重みとアクティベーションを共に1ビット値に分割したBNN(Binary Neural Networks)について検討する。
最適二元集合を適応的に得るために、AdaBin と呼ばれる単純で効果的なアプローチを提案する。
ベンチマークモデルとデータセットの実験結果は、提案されたAdaBinが最先端のパフォーマンスを達成可能であることを示している。
論文 参考訳(メタデータ) (2022-08-17T05:43:33Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Network Binarization via Contrastive Learning [16.274341164897827]
バイナリニューラルネットワーク(BNN)を訓練しながら、新しいコントラスト学習フレームワークを構築する。
MIはバイナリとFPのアクティベーション間で共有される情報を計測する指標として導入された。
以上の結果から,本手法は既存の最先端バイナライズ手法の重ね合わせモジュールとして実装可能であることが示唆された。
論文 参考訳(メタデータ) (2022-07-06T21:04:53Z) - QuantNet: Learning to Quantize by Learning within Fully Differentiable
Framework [32.465949985191635]
本稿では,QuantNetというメタベースの量子化器を提案する。
本手法は, 勾配ミスマッチの問題を解決するだけでなく, 配置中の二項化操作による離散化誤差の影響を低減する。
論文 参考訳(メタデータ) (2020-09-10T01:41:05Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。