論文の概要: Calibrating the Rigged Lottery: Making All Tickets Reliable
- arxiv url: http://arxiv.org/abs/2302.09369v1
- Date: Sat, 18 Feb 2023 15:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:54:22.137560
- Title: Calibrating the Rigged Lottery: Making All Tickets Reliable
- Title(参考訳): 不正な宝くじのキャリブレーション:全てのチケットを信頼できるものに
- Authors: Bowen Lei, Ruqi Zhang, Dongkuan Xu, Bani Mallick
- Abstract要約: 信頼性校正を改善したスパースモデルを生成するための新しいスパーストレーニング手法を提案する。
本手法は,計算量や記憶負荷をわずかに増加させるだけで,同時に精度を向上する。
- 参考スコア(独自算出の注目度): 14.353428281239665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although sparse training has been successfully used in various
resource-limited deep learning tasks to save memory, accelerate training, and
reduce inference time, the reliability of the produced sparse models remains
unexplored. Previous research has shown that deep neural networks tend to be
over-confident, and we find that sparse training exacerbates this problem.
Therefore, calibrating the sparse models is crucial for reliable prediction and
decision-making. In this paper, we propose a new sparse training method to
produce sparse models with improved confidence calibration. In contrast to
previous research that uses only one mask to control the sparse topology, our
method utilizes two masks, including a deterministic mask and a random mask.
The former efficiently searches and activates important weights by exploiting
the magnitude of weights and gradients. While the latter brings better
exploration and finds more appropriate weight values by random updates.
Theoretically, we prove our method can be viewed as a hierarchical variational
approximation of a probabilistic deep Gaussian process. Extensive experiments
on multiple datasets, model architectures, and sparsities show that our method
reduces ECE values by up to 47.8\% and simultaneously maintains or even
improves accuracy with only a slight increase in computation and storage
burden.
- Abstract(参考訳): スパーストレーニングは、メモリを節約し、トレーニングを加速し、推論時間を短縮するために、様々なリソース制限されたディープラーニングタスクでうまく使われてきたが、生成されたスパースモデルの信頼性は未調査のままである。
これまでの研究では、ディープニューラルネットワークは自信過剰である傾向があり、スパーストレーニングがこの問題を悪化させることがわかった。
したがって、スパースモデルのキャリブレーションは信頼できる予測と意思決定に不可欠である。
本稿では,信頼度校正が向上したスパースモデルを生成するための新しいスパーストレーニング手法を提案する。
従来の1つのマスクのみを使用してスパーストポロジーを制御する研究とは対照的に,本手法では決定論的マスクとランダムマスクの2つのマスクを用いる。
前者は、重みと勾配の大きさを利用して、重要な重みを効率的に探索し、活性化する。
後者はより良い探索をもたらし、ランダムな更新によってより適切な重量値を見つける。
理論的には,本手法は確率的深いガウス過程の階層的変動近似とみなすことができる。
複数のデータセット, モデルアーキテクチャ, 疎水性に関する大規模な実験により, 提案手法はECEの値を最大47.8 %削減し, 計算量や記憶量の増加をわずかに増加させるだけで, 同時に精度を向上することを示した。
関連論文リスト
- KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - HyperSparse Neural Networks: Shifting Exploration to Exploitation
through Adaptive Regularization [18.786142528591355]
スパースニューラルネットワークは、リソース効率のよい機械学習アプリケーションを開発する上で重要な要素である。
本稿では,高密度をスパースネットワークに圧縮する適応正規化学習(ART)を提案する。
本手法は,事前学習したモデル知識を最大級の重みに圧縮する。
論文 参考訳(メタデータ) (2023-08-14T14:18:11Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。