論文の概要: VC dimension of partially quantized neural networks in the
overparametrized regime
- arxiv url: http://arxiv.org/abs/2110.02456v1
- Date: Wed, 6 Oct 2021 02:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:41:42.854426
- Title: VC dimension of partially quantized neural networks in the
overparametrized regime
- Title(参考訳): オーバーパラメトリゼーション状態における部分量子化ニューラルネットワークのVC次元
- Authors: Yutong Wang, Clayton D. Scott
- Abstract要約: 我々は、超平面配置ニューラルネットワーク(HANN)と呼ばれる部分量子化されたネットワークのクラスに焦点を当てる。
HANNは重みの数よりもVC次元がかなり小さく、表現力が高いことを示す。
121のUCIデータセットのパネルでは、過度にパラメータ化されたHANNが、最先端のフル精度モデルのパフォーマンスと一致している。
- 参考スコア(独自算出の注目度): 8.854725253233333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vapnik-Chervonenkis (VC) theory has so far been unable to explain the small
generalization error of overparametrized neural networks. Indeed, existing
applications of VC theory to large networks obtain upper bounds on VC dimension
that are proportional to the number of weights, and for a large class of
networks, these upper bound are known to be tight. In this work, we focus on a
class of partially quantized networks that we refer to as hyperplane
arrangement neural networks (HANNs). Using a sample compression analysis, we
show that HANNs can have VC dimension significantly smaller than the number of
weights, while being highly expressive. In particular, empirical risk
minimization over HANNs in the overparametrized regime achieves the minimax
rate for classification with Lipschitz posterior class probability. We further
demonstrate the expressivity of HANNs empirically. On a panel of 121 UCI
datasets, overparametrized HANNs match the performance of state-of-the-art
full-precision models.
- Abstract(参考訳): Vapnik-Chervonenkis(VC)理論は、過度にパラメータ化されたニューラルネットワークの小さな一般化誤差を説明することができなかった。
実際、VC理論の大規模ネットワークへの既存の応用は、重みの個数に比例するVC次元の上限を求めており、大規模なネットワークの場合、これらの上限は厳密であることが知られている。
本研究では,超平面配置ニューラルネットワーク (hyperplane arrangement neural networks, hanns) と呼ばれる,部分量子化ネットワークのクラスに注目した。
サンプル圧縮解析により, HANNは重み数よりもVC次元が有意に小さく, 表現性が高いことを示す。
特に、過パラメータ化状態におけるハン人に対する経験的リスク最小化は、リプシッツ後流確率による分類の最小化率を達成する。
さらに,HANNの表現性を実証的に示す。
121のuciデータセットのパネルでは、オーバーパラメータ化されたhannは最先端のフル精度モデルのパフォーマンスに匹敵する。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Dense Hebbian neural networks: a replica symmetric picture of supervised
learning [4.133728123207142]
我々は教師が指導する高密度で連想的なニューラルネットについて検討する。
スピングラスの統計力学およびモンテカルロシミュレーションによる数値計算能力の解析を行った。
論文 参考訳(メタデータ) (2022-11-25T13:37:47Z) - Lipschitz Bound Analysis of Neural Networks [0.0]
リプシッツ境界推定は、ディープニューラルネットワークを正則化し、敵の攻撃に対して堅牢にする効果的な方法である。
本稿では、畳み込みニューラルネットワーク(CNN)のための非自明なリプシッツ境界証明書を得る際の大きなギャップについて述べる。
また,畳み込みニューラルネットワーク(CNN)を完全連結ネットワークに変換するために,畳み込み層やToeplitz行列の展開も可能であることを示す。
論文 参考訳(メタデータ) (2022-07-14T23:40:22Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z) - Mixed-Precision Quantized Neural Network with Progressively Decreasing
Bitwidth For Image Classification and Object Detection [21.48875255723581]
ビット幅が徐々に増大する混合精度量子化ニューラルネットワークを提案し,精度と圧縮のトレードオフを改善する。
典型的なネットワークアーキテクチャとベンチマークデータセットの実験は、提案手法がより良い結果または同等の結果が得られることを示した。
論文 参考訳(メタデータ) (2019-12-29T14:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。