論文の概要: Boost Neural Networks by Checkpoints
- arxiv url: http://arxiv.org/abs/2110.00959v1
- Date: Sun, 3 Oct 2021 09:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:52:32.349423
- Title: Boost Neural Networks by Checkpoints
- Title(参考訳): チェックポイントによるニューラルネットワークの強化
- Authors: Feng Wang, Guoyizhe Wei, Qiao Liu, Jinxiang Ou, Xian Wei, Hairong Lv
- Abstract要約: 本稿では,ディープニューラルネットワーク(DNN)のチェックポイントをアンサンブルする新しい手法を提案する。
同じトレーニング予算で,Cifar-100では4.16%,Tiny-ImageNetでは6.96%,ResNet-110アーキテクチャでは6.96%の誤差を達成した。
- 参考スコア(独自算出の注目度): 9.411567653599358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training multiple deep neural networks (DNNs) and averaging their outputs is
a simple way to improve the predictive performance. Nevertheless, the
multiplied training cost prevents this ensemble method to be practical and
efficient. Several recent works attempt to save and ensemble the checkpoints of
DNNs, which only requires the same computational cost as training a single
network. However, these methods suffer from either marginal accuracy
improvements due to the low diversity of checkpoints or high risk of divergence
due to the cyclical learning rates they adopted. In this paper, we propose a
novel method to ensemble the checkpoints, where a boosting scheme is utilized
to accelerate model convergence and maximize the checkpoint diversity. We
theoretically prove that it converges by reducing exponential loss. The
empirical evaluation also indicates our proposed ensemble outperforms single
model and existing ensembles in terms of accuracy and efficiency. With the same
training budget, our method achieves 4.16% lower error on Cifar-100 and 6.96%
on Tiny-ImageNet with ResNet-110 architecture. Moreover, the adaptive sample
weights in our method make it an effective solution to address the imbalanced
class distribution. In the experiments, it yields up to 5.02% higher accuracy
over single EfficientNet-B0 on the imbalanced datasets.
- Abstract(参考訳): 複数のディープニューラルネットワーク(DNN)をトレーニングし、その出力を平均化することは、予測性能を改善するための簡単な方法である。
それでも、乗算訓練コストは、このアンサンブル法が実用的かつ効率的であることを防ぐ。
最近のいくつかの研究は、単一のネットワークをトレーニングするのと同じ計算コストを必要とするDNNのチェックポイントの保存とアンサンブルを試みている。
しかし,これらの手法は,チェックポイントの多様性の低いことや,採用した循環学習率による分岐リスクが高いことによる限界精度の向上に悩まされている。
本稿では,モデルの収束を加速し,チェックポイントの多様性を最大化するためにブースティングスキームを利用する,新しいチェックポイントをアンサンブルする手法を提案する。
指数損失を減少させることで収束することを理論的に証明する。
実験により,提案したアンサンブルは単一モデルと既存のアンサンブルよりも精度と効率が良いことを示す。
同じトレーニング予算で、cifar-100では4.16%、resnet-110アーキテクチャでは6.96%のエラーが達成される。
さらに,本手法の適応標本重み付けは,不均衡なクラス分布に対処するための有効な解となる。
実験では、不均衡データセットの1つの efficientnet-b0よりも最大5.2%高い精度が得られる。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Grad-Instructor: Universal Backpropagation with Explainable Evaluation Neural Networks for Meta-learning and AutoML [0.0]
評価ニューラルネットワーク(ENN)は、ターゲットネットワークの性能を予測するために、深層強化学習を通じて訓練される。
ENNは、バックプロパゲーション中に追加評価機能として機能する。
論文 参考訳(メタデータ) (2024-06-15T08:37:51Z) - Two Heads are Better than One: Robust Learning Meets Multi-branch Models [14.72099568017039]
本稿では,従来の対人訓練用データセットのみを用いて,最先端のパフォーマンスを得るために,分岐直交補助訓練(BORT)を提案する。
我々は, CIFAR-10, CIFAR-100, SVHN に対する Epsilon = 8/255 の ell_infty ノルム束縛摂動に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-17T05:42:59Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Training Sparse Neural Networks using Compressed Sensing [13.84396596420605]
本研究では,プレニングとトレーニングを1ステップに組み合わせた圧縮センシングに基づく新しい手法の開発と試験を行う。
具体的には、トレーニング中の重みを適応的に重み付けした$ell1$のペナルティを利用して、スパースニューラルネットワークをトレーニングするために、正規化二重平均化(RDA)アルゴリズムの一般化と組み合わせる。
論文 参考訳(メタデータ) (2020-08-21T19:35:54Z) - Passive Batch Injection Training Technique: Boosting Network Performance
by Injecting Mini-Batches from a different Data Distribution [39.8046809855363]
この研究は、元の入力データとは異なる分布から追加のデータを利用するディープニューラルネットワークの新しいトレーニング手法を提案する。
私たちの知る限りでは、畳み込みニューラルネットワーク(CNN)のトレーニングを支援するために、異なるデータ分散を利用する最初の研究である。
論文 参考訳(メタデータ) (2020-06-08T08:17:32Z) - Efficient and Scalable Bayesian Neural Nets with Rank-1 Factors [36.56528603807598]
そこで,各重み行列はランク1部分空間上の分布のみを含むBNNのランク1パラメータ化を提案する。
また、複数のモードをキャプチャするために、混合近似後続法を用いて再検討し、典型的な混合法とは異なり、この手法はメモリ増加を著しく小さくする。
ImageNetのResNet-50、CIFAR-10/100のWide ResNet 28-10、MIMIC-IIIのRNNでは、ランク1のBNNはログ、精度、キャリブレーションで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-05-14T17:58:59Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。