論文の概要: A novel nonconvex, smooth-at-origin penalty for statistical learning
- arxiv url: http://arxiv.org/abs/2204.03123v1
- Date: Wed, 6 Apr 2022 23:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 15:18:42.576603
- Title: A novel nonconvex, smooth-at-origin penalty for statistical learning
- Title(参考訳): 統計的学習のための新しい非凸スムース・アット・オリジンペナルティ
- Authors: Majnu John, Sujit Vettam, Yihren Wu
- Abstract要約: 非正規罰は高次元統計学習アルゴリズムの正規化に使用される。
本論文は, 指数関数的に速く消滅する新たなペナルティ機能を備えた, 通常の最小深層学習ペナルティに対する結果を含む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonconvex penalties are utilized for regularization in high-dimensional
statistical learning algorithms primarily because they yield unbiased or nearly
unbiased estimators for the parameters in the model. Nonconvex penalties
existing in the literature such as SCAD, MCP, Laplace and arctan have a
singularity at origin which makes them useful also for variable selection.
However, in several high-dimensional frameworks such as deep learning, variable
selection is less of a concern. In this paper, we present a nonconvex penalty
which is smooth at origin. The paper includes asymptotic results for ordinary
least squares estimators regularized with the new penalty function, showing
asymptotic bias that vanishes exponentially fast. We also conducted an
empirical study employing deep neural network architecture on three datasets
and convolutional neural network on four datasets. The empirical study showed
better performance for the new regularization approach in five out of the seven
datasets.
- Abstract(参考訳): 非凸ペナルティ(nonconvex penalties)は、主にモデル内のパラメータに対して偏りのない、あるいは偏りのない推定子を与えるため、高次元統計学習アルゴリズムの正則化に使用される。
SCAD, MCP, Laplace, arctanなどの文献に存在する非凸ペナルティは、原点に特異性を持ち、変数選択にも有用である。
しかし、ディープラーニングのようないくつかの高次元フレームワークでは、変数の選択があまり問題にならない。
本稿では,原点において滑らかな非凸ペナルティを提案する。
本論文は,新たなペナルティ関数で正規化される通常の最小二乗推定器に対する漸近的結果を含み,指数関数的に急速に消失する漸近的バイアスを示す。
また,3つのデータセットのディープニューラルネットワークアーキテクチャと,4つのデータセットの畳み込みニューラルネットワークを用いた経験的研究を行った。
実証研究では、7つのデータセットのうち5つで新しい正規化アプローチのパフォーマンスが向上した。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Wide Network Learning with Differential Privacy [7.453881927237143]
現在のニューラルネットの世代は、最も実質的に関連するプライバシトレーニング体制下で大きな損失を被っている。
プライベートな経験最小化(ERM)の勾配を生かしたこれらのモデルを訓練するための一般的なアプローチを開発する。
同じパラメータの数に従って、ニューラルネットワークをプライベートにトレーニングするための新しいアルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-03-01T20:31:50Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - What needles do sparse neural networks find in nonlinear haystacks [0.0]
人工ニューラルネットワーク(ANN)におけるスパーシリティ誘導ペナルティは、特にノイズが高く、トレーニングセットが小さい状況において、過度な適合を避ける。
線形モデルの場合、そのようなアプローチは、適切なコセンのペナルティパラメータに対するレギュレーションにおいて高い確率で重要な特徴を確実に回復する。
簡単なモデルを用いてモンテカルロシミュレーションを行い,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2020-06-07T04:46:55Z) - Online stochastic gradient descent on non-convex losses from
high-dimensional inference [2.2344764434954256]
勾配降下(SGD)は高次元タスクにおける最適化問題に対する一般的なアルゴリズムである。
本稿では,データから非自明な相関関係を推定する。
本稿では、位相探索や一般化モデルの推定といった一連のタスクに適用することで、我々のアプローチを説明する。
論文 参考訳(メタデータ) (2020-03-23T17:34:06Z) - Training Two-Layer ReLU Networks with Gradient Descent is Inconsistent [2.7793394375935088]
We proof that two-layer (Leaky)ReLU network by e., from the widely use method proposed by He et al. is not consistent。
論文 参考訳(メタデータ) (2020-02-12T09:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。